Nano Hash - криптовалюты, майнинг, программирование

Пользовательские байты аудиоввода для службы когнитивного перевода речи Azure на Python

Мне нужно переводить пользовательские байты аудио, которые я могу получить из любого источника, и переводить голос на нужный мне язык (в настоящее время хинди). Я пытался передать пользовательские байты звука, используя следующий код на Python:

import azure.cognitiveservices.speech as speechsdk
from azure.cognitiveservices.speech.audio import AudioStreamFormat, PullAudioInputStream, PullAudioInputStreamCallback, AudioConfig, PushAudioInputStream


speech_key, service_region = "key", "region"

channels = 1
bitsPerSample = 16
samplesPerSecond = 16000
audioFormat = AudioStreamFormat(samplesPerSecond, bitsPerSample, channels)

class CustomPullAudioInputStreamCallback(PullAudioInputStreamCallback):

    def __init__(self):
        return super(CustomPullAudioInputStreamCallback, self).__init__()

    def read(self, file_bytes):
        print (len(file_bytes))
        return len(file_bytes)

    def close(self):
        return super(CustomPullAudioInputStreamCallback, self).close()

class CustomPushAudioInputStream(PushAudioInputStream):

    def write(self, file_bytes):
        print (type(file_bytes))
        return super(CustomPushAudioInputStream, self).write(file_bytes)

    def close():
        return super(CustomPushAudioInputStream, self).close()

translation_config = speechsdk.translation.SpeechTranslationConfig(subscription=speech_key, region=service_region)

fromLanguage = 'en-US'
toLanguage = 'hi'
translation_config.speech_recognition_language = fromLanguage
translation_config.add_target_language(toLanguage)

translation_config.voice_name = "hi-IN-Kalpana-Apollo"


pull_audio_input_stream_callback = CustomPullAudioInputStreamCallback()
# pull_audio_input_stream = PullAudioInputStream(pull_audio_input_stream_callback, audioFormat)
# custom_pull_audio_input_stream = CustomPushAudioInputStream(audioFormat)

audio_config = AudioConfig(use_default_microphone=False, stream=pull_audio_input_stream_callback)
recognizer = speechsdk.translation.TranslationRecognizer(translation_config=translation_config,
                                                         audio_config=audio_config)


def synthesis_callback(evt):
        size = len(evt.result.audio)
        print('AUDIO SYNTHESIZED: {} byte(s) {}'.format(size, '(COMPLETED)' if size == 0 else ''))
        if size > 0:
            t_sound_file = open("translated_output.wav", "wb+")
            t_sound_file.write(evt.result.audio)
            t_sound_file.close()
        recognizer.stop_continuous_recognition_async()

def recognized_complete(evt):
    if evt.result.reason == speechsdk.ResultReason.TranslatedSpeech:
        print("RECOGNIZED '{}': {}".format(fromLanguage, result.text))
        print("TRANSLATED into {}: {}".format(toLanguage, result.translations['hi']))
    elif evt.result.reason == speechsdk.ResultReason.RecognizedSpeech:
        print("RECOGNIZED: {} (text could not be translated)".format(result.text))
    elif evt.result.reason == speechsdk.ResultReason.NoMatch:
        print("NOMATCH: Speech could not be recognized: {}".format(result.no_match_details))
    elif evt.reason == speechsdk.ResultReason.Canceled:
        print("CANCELED: Reason={}".format(result.cancellation_details.reason))
        if result.cancellation_details.reason == speechsdk.CancellationReason.Error:
            print("CANCELED: ErrorDetails={}".format(result.cancellation_details.error_details))

def receiving_bytes(audio_bytes):
    # audio_bytes contain bytes of audio to be translated
    recognizer.synthesizing.connect(synthesis_callback)
    recognizer.recognized.connect(recognized_complete)

    pull_audio_input_stream_callback.read(audio_bytes)
    recognizer.start_continuous_recognition_async()


receiving_bytes(audio_bytes)

Вывод: Ошибка: AttributeError: объект 'PullAudioInputStreamCallback' не имеет атрибута '_impl'

Пакеты и их версии:

Python 3.6.3 лазурные когнитивные сервисы-речь 1.11.0

Преобразование файлов может быть успешно выполнено, но я не хочу сохранять файлы для каждого получаемого блока байтов.

Можете ли вы передать пользовательские байты аудио в службу перевода речи Azure и получить результат на Python? Если да, то как?


Ответы:


1

Я сам нашел решение проблемы. Я думаю, что это работает и с PullAudioInputStream. Но у меня это сработало, используя PushAudioInputStream. Вам не нужно создавать собственные классы, это будет работать следующим образом:

import azure.cognitiveservices.speech as speechsdk
from azure.cognitiveservices.speech.audio import AudioStreamFormat, PullAudioInputStream, PullAudioInputStreamCallback, AudioConfig, PushAudioInputStream

from threading import Thread, Event


speech_key, service_region = "key", "region"

channels = 1
bitsPerSample = 16
samplesPerSecond = 16000
audioFormat = AudioStreamFormat(samplesPerSecond, bitsPerSample, channels)

translation_config = speechsdk.translation.SpeechTranslationConfig(subscription=speech_key, region=service_region)

fromLanguage = 'en-US'
toLanguage = 'hi'
translation_config.speech_recognition_language = fromLanguage
translation_config.add_target_language(toLanguage)

translation_config.voice_name = "hi-IN-Kalpana-Apollo"

# Remove Custom classes as they are not needed.

custom_push_stream = speechsdk.audio.PushAudioInputStream(stream_format=audioFormat)

audio_config = AudioConfig(stream=custom_push_stream)

recognizer = speechsdk.translation.TranslationRecognizer(translation_config=translation_config, audio_config=audio_config)

# Create an event
synthesis_done = Event()

def synthesis_callback(evt):
        size = len(evt.result.audio)
        print('AUDIO SYNTHESIZED: {} byte(s) {}'.format(size, '(COMPLETED)' if size == 0 else ''))
        if size > 0:
            t_sound_file = open("translated_output.wav", "wb+")
            t_sound_file.write(evt.result.audio)
            t_sound_file.close()
        # Setting the event
        synthesis_done.set()

def recognized_complete(evt):
    if evt.result.reason == speechsdk.ResultReason.TranslatedSpeech:
        print("RECOGNIZED '{}': {}".format(fromLanguage, result.text))
        print("TRANSLATED into {}: {}".format(toLanguage, result.translations['hi']))
    elif evt.result.reason == speechsdk.ResultReason.RecognizedSpeech:
        print("RECOGNIZED: {} (text could not be translated)".format(result.text))
    elif evt.result.reason == speechsdk.ResultReason.NoMatch:
        print("NOMATCH: Speech could not be recognized: {}".format(result.no_match_details))
    elif evt.reason == speechsdk.ResultReason.Canceled:
        print("CANCELED: Reason={}".format(result.cancellation_details.reason))
        if result.cancellation_details.reason == speechsdk.CancellationReason.Error:
            print("CANCELED: ErrorDetails={}".format(result.cancellation_details.error_details))


recognizer.synthesizing.connect(synthesis_callback)
recognizer.recognized.connect(recognized_complete)

# Read and get data from an audio file
open_audio_file = open("speech_wav_audio.wav", 'rb')
file_bytes = open_audio_file.read()

# Write the bytes to the stream
custom_push_stream.write(file_bytes)
custom_push_stream.close()

# Start the recognition
recognizer.start_continuous_recognition()

# Waiting for the event to complete
synthesis_done.wait()

# Once the event gets completed you can call Stop recognition
recognizer.stop_continuous_recognition()

Я использовал событие из потока, поскольку start_continuous_recognition запускается в другом потоке, и вы не получите данные из событий обратного вызова, если не используете потоки. synthesis_done.wait решит эту проблему, дождавшись завершения события и только после этого вызовет stop_continuous_recognition. Как только вы получите байты звука, вы можете делать все, что захотите, в synthesis_callback. Я упростил пример и взял байты из файла wav.

10.05.2020
  • для определения конца потока лучше использовать команду cancelled: def cancelled_callback (evt): print (f'Audio cancelled: {evt.cancellation_details} ') synt_done.set () и excanceled.connect (cancelled_callback) 21.09.2020

  • 2

    В приведенном примере кода в качестве параметра потока для AudioConfig используется обратный вызов, что, похоже, недопустимо.

    Этот код должен работать без ошибок:

    pull_audio_input_stream_callback = CustomPullAudioInputStreamCallback()
    pull_audio_input_stream = PullAudioInputStream(pull_stream_callback=pull_audio_input_stream_callback, stream_format=audioFormat)
    
    audio_config = AudioConfig(use_default_microphone=False, stream=pull_audio_input_stream)
    
    05.05.2020
    Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..