Nano Hash - криптовалюты, майнинг, программирование

Почему один столбец заставляет мою SVM работать час?

Я использую sklearn.SVC в DataFrame pandas для прогнозирования категориальных данных. Вектор функций с именем «feature_train» представляет собой один столбец времени (numpy.int64) и несколько тысяч столбцов tfidf (которые очень редко содержат значения numpy.float64):

     Timestamp Start  able  acceptance  acceptance criterion  access  account  
113              646   0.0         0.0                   0.0     0.0      0.0   
342             1775   0.0         0.0                   0.0     0.0      0.0   
3                202   0.0         0.0                   0.0     0.0      0.0   
129              728   0.0         0.0                   0.0     0.0      0.0   
32               257   0.0         0.0                   0.0     0.0      0.0   
..               ...   ...         ...                   ...     ...      ...   
140              793   0.0         0.0                   0.0     0.0      0.0   
165              919   0.0         0.0                   0.0     0.0      0.0   
180             1290   0.0         0.0                   0.0     0.0      0.0   
275             1644   0.0         0.0                   0.0     0.0      0.0   
400             2402   0.0         0.0                   0.0     0.0      0.0   

для справки, вот столбец, который я пытаюсь предсказать с именем «label_train»:

113    14
342    17
3       1
129     0
32     12
       ..
140    15
165     1
180    15
275    12
400    14

Я сразу ввожу эти две переменные в линейный SVM:

clf = svm.SVC(kernel="linear")
clf.fit(feature_train, label_train) #<-- this takes forever

Индексы не по порядку, потому что я использую функцию разделения поезд-тест. Когда я запускаю этот DataFrame через sklearn.SVC(kernel="linear"), для завершения требуется 4275 секунд, но когда я удаляю столбец «Timestamp Start», это занимает 6 секунд. Кроме того, если я удалю все столбцы tfidf, чтобы осталась только «Timestamp Start», обучение модели также займет очень много времени.

Почему один столбец целых чисел обучить значительно сложнее, чем 2000+ чисел с плавающей запятой? Это нормальное поведение? Если это так, то если бы я добавил оставшиеся 3 столбца временных меток, это заняло бы слишком много времени, чтобы вообще использовать временные метки.

24.10.2019

  • Вы масштабировали свои функции? 24.10.2019
  • Вот оно! Я не уверен, почему масштабирование приводит к увеличению производительности, но, по крайней мере, теперь я знаю. 30.10.2019

Ответы:


1

Ответ состоял в том, чтобы масштабировать значения столбца между 0-1. Большие значения приводят к резкому снижению производительности.

30.10.2019

2

Когда вы используете алгоритмы на основе расстояния, такие как SVM, вы хотите, чтобы ваши функции были нормализованы, поэтому ни одна функция не будет доминировать в вашем обучении. Взгляните на этот блог Роберто Рейфа. Вы также найдете множество ресурсов о том, почему, что и как.

https://www.robertoreif.com/blog/2017/12/16/importance-of-feature-scaling-in-data-modeling-part-1-h8nla

03.11.2019
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..