Nano Hash - криптовалюты, майнинг, программирование

Возведение матрицы в степень с помощью scipy: expm, expm2 и expm3

Возведение матрицы в степень можно выполнить в python с помощью функций из библиотеки scipy.linalg, а именно expm, expm2, expm3. expm использует приближение Паде; expm2 использует метод разложения по собственным значениям, а expm3 использует ряд Тейлора с числом членов по умолчанию, равным 20.

В примечаниях к выпуску SciPy 0.13.0 указано, что:

Матричные экспоненциальные функции scipy.linalg.expm2 и scipy.linalg.expm3 устарели. Вместо этого всем пользователям следует использовать более надежную в числовом отношении функцию scipy.linalg.expm.

Хотя expm2 и expm3 устарели, начиная с версии SciPy 0.13.0, я обнаружил, что во многих ситуациях эти реализации работают быстрее, чем expm. Отсюда возникают некоторые вопросы:

В каких ситуациях expm2 и expm3 могут привести к численной нестабильности?

В каких ситуациях (например, разреженные матрицы, симметричные,...) каждый из алгоритмов работает быстрее/точнее?


  • Этот вопрос интересен, если вы не получили здесь ответы, вы также можете опубликовать его на Mathematics Stack Exchange (с точки зрения алгоритмов вы упоминаете, а не функции SciPy). 02.08.2017

Ответы:


1

Это будет во многом зависеть от деталей реализации этих различных способов возведения матрицы в степень.

В общем, я ожидаю, что собственное разложение (expm2) плохо подходит для разреженных матриц, потому что оно, скорее всего, устранит разреженность. Его также будет сложнее применить к несимметричным матрицам, потому что это потребует использования сложной арифметики и более дорогих алгоритмов для вычисления собственного разложения.

Для подхода с рядом Тейлора (expm3) это звучит рискованно, если имеется фиксированное количество членов, не зависящих от нормы матрицы. При вычислении e ^ x для скаляра x самые большие члены в ряду Тейлора находятся вокруг тех, для которых n близко к x.

Однако детали реализации этих (устаревших) функций могут использовать приемы, такие как диагональная загрузка матрицы, чтобы повысить стабильность расширения этих серий.

30.03.2018
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..