Nano Hash - криптовалюты, майнинг, программирование

Как включить категориальные переменные в объединенный OLS с помощью plm ()?

Есть ли способ включить категориальные переменные (факторы с несколькими уровнями факторов) при использовании plm() для объединенного OLS? Насколько я понимаю, в plm() все переменные должны быть числовыми, что в моем случае не сработает. Я мог бы включить одну фиктивную переменную для каждого уровня факторов, однако это привело бы к большему количеству переменных, которые на самом деле являются лишь уровнями значительно меньшего числа факторов.

Я задал аналогичный вопрос о CrossValidated и будем благодарны за любую помощь.

Если потребуется, я приведу минимальный пример, но я предполагаю, что это более общий вопрос о том, как использовать plm() и lm().

15.01.2015

Ответы:


1

Вы можете легко включить числовые и категориальные переменные как в plm(), так и в lm().

require(plm)
data(Males)
head(Males[1:6])
# nr year school exper union  ethn
# 1 13 1980     14     1    no other
# 2 13 1981     14     2   yes other
# 3 13 1982     14     3    no other
# 4 13 1983     14     4    no other
# 5 13 1984     14     5    no other
# 6 13 1985     14     6    no other

coef(lm(wage ~ school + union + ethn, data=Males))
# (Intercept)      school    unionyes   ethnblack    ethnhisp 
# 0.7148      0.0767      0.1930     -0.1523      0.0134 

coef(plm(wage ~ school + union + ethn, data=Males, model="pooling"))
# (Intercept)      school    unionyes   ethnblack    ethnhisp 
# 0.7148      0.0767      0.1930     -0.1523      0.0134 

Как видите, в обоих случаях могут быть как фиктивные, так и категориальные переменные.

15.01.2015
  • Спасибо. Я где-то читал, что это не сработает, и я получал сообщение об ошибке при включении факторов, но, очевидно, проблема была в другом ... 15.01.2015
  • Я подозреваю, что вы бьетесь головой о факторных контрастах. См. stackoverflow.com/questions/ 3445316 / и stackoverflow.com/questions/2352617/. 15.01.2015
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..