Nano Hash - криптовалюты, майнинг, программирование

Уверенность в прогнозах DecisionTreeClassifier

Я пытаюсь понять, как работают алгоритмы классификации для создания своего рода универсального конвейера, поэтому я только начал с модели LinearSVC. Вообще говоря, я делаю:

model = LinearSVC(loss='squared_hinge', penalty='l2', dual=False, tol=1e-3)
model.fit(X_train, y_train)
pred_labels = model.predict(X_unlabeled)  
confidence_on_pred_labels = model.decision_function(X_unlabeled)

Мне очень нужны на выходе предсказанные метки и их достоверность. Но когда я пытаюсь сделать это с другими моделями, я не могу найти способ получить доверие. Например.

model = DecisionTreeClassifier(random_state=0)
model.fit(X_train, y_train)
pred_labels = model.predict(X_unlabeled)  
confidence_on_pred_labels = model.predict_proba(X_unlabeled)

В этом случае predict_proba возвращает для каждой предсказанной метки кортеж, содержащий [0,1] в качестве значений (вместо доверительного интервала между 0 и 1 в виде одного числа). Я имею в виду, что абсолютно все прогнозы имеют значение 0,0 или 1,0, без значений посередине. Например. если я побегу

set(model.predict_proba(X_unlabeled)[:,1]) I will get [0.0, 1.0] 

Это нормально?

Как я могу получить такой номер? Или какие другие модели позволяют мне получить достоверность прогнозов? Лучший,


Ответы:


1

Является ли X без меток теми же данными, что и X без меток? Это может быть причиной того, что ваши вероятности отображаются как [0. 1.]. Если вместо этого вы дадите ему данные, которые вы пытаетесь предсказать, но они не совпадают, вы должны получить разные вероятности. model.predict_proba должен работать, чтобы показать вам вероятности класса.

02.10.2019
  • Привет @Horbaje, спасибо за ответ. Я не понял вопроса. X_unlabeled - это матрица csr, данные которой, например, [62.0465408 36.30498454 4.27042236 ...] 02.10.2019
  • И абсолютно все прогнозы имеют значение o.0 или 1.0. Это нормально? Например. если я запущу set(model.predict_proba(X_unlabeled)[:,1]) я получу [0.0, 1.0] 02.10.2019
  • И да, X_unlabeled — это данные в целевом наборе (без меток для классификации) 02.10.2019
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..