Nano Hash - криптовалюты, майнинг, программирование

Pandas to_csv сохраняет данные только из последнего запуска моего скрипта. Как я могу создать большую таблицу для сохранения всех моих симуляций?

Я довольно новичок в питоне. В настоящее время я пытаюсь выполнить несколько прогонов моей симуляции, чтобы увидеть, как мои данные отличаются от каждого прогона. В настоящее время я запускаю этот код из моего класса Model, чтобы создать свой файл и фрейм данных, включая словарь. Эпохи — это просто дни в каждой симуляции:

def setup_model(num_epochs):

     model = Model(epochs=num_epochs)

     model.output["student_stats"] = {
        "healthy": [],
        "infectious": [],
        "absent": [],
        "recovered": []
     }
     student_stats = model.output["student_stats"]

Вот код, в котором я настроил фрейм данных pd:

df = pd.DataFrame(student_stats)
df.to_csv("file_name.csv", header=True)

Я запускаю свою симуляцию из моего Launcher.py и импортирую метод setup_model. Ниже приведен код из моего Launcher.py:

from Model import setup_model

for i in range(5):

    setup_model(30)

Когда я запускаю свою симуляцию, хотя я получаю результат только от одного прогона (каждая симуляция длится 30 дней), я хочу получить результат от 5 прогонов симуляции. Вот пример моего текущего вывода:

,healthy,infectious,absent,recovered
0,125,1,0,0
1,124,2,0,0
2,123,2,1,0
3,122,2,2,0
4,121,2,3,0
5,120,2,3,1
6,119,2,3,2
7,119,1,3,3
8,119,0,3,4
9,119,0,2,5
10,118,1,1,6
11,118,1,0,7
12,118,0,1,7
13,118,0,1,7
14,118,0,1,7
15,118,0,0,8
16,118,0,0,8
17,118,0,0,8
18,118,0,0,8
19,118,0,0,8
20,118,0,0,8
21,118,0,0,8
22,118,0,0,8
23,118,0,0,8
24,118,0,0,8
25,118,0,0,8
26,118,0,0,8
27,118,0,0,8
28,118,0,0,8
29,117,1,0,8

Он сохраняет данные только из последнего запуска, я не знаю, как я могу сохранить его для всех запусков.


Ответы:


1

to_csv режим по умолчанию w как для записи. Это означает, что он переопределяет имя файла имя_файла.csv в папке каждый раз, когда выполняет это действие. Таким образом, будет сохранен только последний результат.

два варианта:

  1. Каждый раз сохраняйте разные файлы. Например, отправьте i на setup_model, а затем сохраните файл как "file_name"+i+".csv". Тогда у вас будет отдельный файл для каждой эпохи.
  2. Использовать режим добавления: df.to_csv("file_name.csv", mode="a", header=True). Это добавит текущий кадр данных к тому, что находится в file_name.csv. Это не переопределит его. У вас будет один файл со всеми вашими результатами, но разделение каждой эпохи может оказаться неудобным.

Выбирайте, что удобнее на ваш взгляд.

23.07.2020
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..