Nano Hash - криптовалюты, майнинг, программирование

grunt-contrib-watch с livereload с vs без grunt-contrib-connect

Я новичок в Node, grunt и использую как grunt-contrib-watch, так и grunt-contrib-connect.

Насколько я понимаю, задача просмотра с параметром livereload = true повторно запускает упомянутые задачи цели и обновляет браузер, запуская сервер livereload для обслуживания перезагруженных статических файлов.

Однако, если перезагрузка браузера и подача статических файлов происходят с задачей «просто смотреть» с параметром livereload=true, зачем нам снова нужно grunt-contrib-connect для той же работы.

  • Пожалуйста, объясните, нужна ли нам задача подключения для этой цели или для чего-то другого.
  • Правильно ли я понял по поводу достижения цели просто смотреть с livereload=true.

Спасибо.


Ответы:


1

Опция livereload в grunt-contrib-watch отвечает за запуск запроса веб-сокета к браузеру для перезагрузки страницы. Это не http-сервер. Насколько я помню, grunt-contrib-connect это просто HTTP server. Помните, что grunt-contrib-watch запускает сервер веб-сокетов на порту 35736, поэтому добавьте скрипт

<script src="//localhost:35729/livereload.js"></script>

Чтобы вызвать перезагрузку в реальном времени в браузере.

Надеюсь, это проясняет, что вам нужно

26.01.2017
  • Всякий раз, когда какие-либо файлы css/js изменены, если я могу повторно запустить задачи, перезагрузить файлы на сервере, обновить страницу, просто наблюдая с параметромliverreload и livereload.js на месте, тогда я не уверен, что мне нужно grunt-contrib-connect снова? Coz, как правило, это все, что нужно в отношении статических файлов. Пожалуйста, поправьте меня/уточните. Спасибо. 26.01.2017
  • @Madav, я думаю, вы имеете в виду прямое открытие файлов в браузере, что, я думаю, будет работать нормально. В моих случаях обычно я разрабатываю одностраничные приложения, поэтому требуется некоторая маршрутизация сервера. Вот почему потребность в http server. Не говорю, что без него нельзя, но правильный способ - использовать сервер. Кроме того, вы не ограничены в определении сервера в grunt, я обычно использую сторонний сервер, такой как nginx и т. Д., Даже для моего кода разработки :) 26.01.2017
  • Да, я понимаю необходимость в http-сервере. Однако для открытых статических файлов можно ли думать, что одной опции watch-liverreload достаточно для выполнения работы? Спасибо. 26.01.2017
  • Да, конечно. Но я бы порекомендовал сервер, так как это конечная среда, в которой код должен обслуживаться (y) 26.01.2017
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..