Nano Hash - криптовалюты, майнинг, программирование

Наложение нормального распределения на гистограмму

Возможный дубликат:
ggplot2: наложение гистограммы с кривой плотности

извините за то, что, вероятно, простой вопрос, но у меня есть небольшая проблема.

Я создал гистограмму, основанную на биномиальном распределении со средним значением = 0,65 и sd = 0,015 с 10000 выборками. Сама гистограмма выглядит нормально. Однако мне нужно наложить на это нормальное распределение (с тем же средним значением и стандартным отклонением). В настоящее время у меня есть следующее:

qplot(x, data=prob, geom="histogram", binwidth=.05) + stat_function(geom="line", fun=dnorm, arg=list(mean=0,65, sd=0,015))

Дистрибутив появляется, но он МАЛЕНЬКИЙ. Вероятно, это связано с тем, что среднее значение достигает почти 2000, в то время как нормальное распределение намного меньше. Проще говоря, он не снабжается данными так, как это сделал бы автоматически R. Есть ли способ указать линию нормального распределения, чтобы она соответствовала гистограмме, или есть способ манипулировать гистограммой, чтобы она соответствовала нормальному распределению?

Заранее спасибо.



Ответы:


1

«Распределение крошечное», потому что вы строите график функции плотности по количествам. Вы должны использовать одну и ту же метрику на обоих графиках, например:

Я пытаюсь сгенерировать некоторые данные для вашего примера:

x <- rbinom(10000, 10, 0.15)
prob <- data.frame(x=x/(mean(x)/0.65))

И постройте оба графика как функции плотности:

library(ggplot2)
ggplot(prob, aes(x=x)) + geom_histogram(aes(y = ..density..), binwidth=.05) + stat_function(geom="line", fun=dnorm, arg=list(mean=0.65, sd=0.015))

введите здесь описание изображения

13.11.2011
  • Работал отлично. Выяснение того, как преобразовать гистограмму счета в функцию плотности, было волшебным шагом, который я не мог понять. Спасибо! 14.11.2011

  • 2

    Ответ @daroczig правильный в отношении необходимости быть последовательным при построении графиков плотности, а не подсчета, но: мне трудно понять, как вам удалось получить биномиальную выборку с этими свойствами. В частности, среднее значение бинома равно n*p, дисперсия равна n*p*(1-p), стандартное отклонение равно sqrt(n*p*(1-p)), так что...

    b.m <- 0.65
    b.sd <- 0.015
    

    Рассчитать дисперсию:

    b.v <- b.sd^2  ## n*p*(1-p)
    

    Рассчитать p:

    ## (1-p) = b.v/(n*p) = b.v/b.m
    ## p = 1-b.v/b.m
    b.p <- 1-b.v/b.m
    

    Рассчитать n:

    ## n = n*p/p = b.m/b.p
    b.n <- b.m/b.p
    

    Это дает n=0.6502251, p=0.9996538 -- поэтому я не понимаю, как можно получить это биномиальное распределение без n<1, если только я не напортачил с алгеброй...

    13.11.2011
    Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..