Nano Hash - криптовалюты, майнинг, программирование

Как организовать код Symfony 3 для работы со сложными конечными точками JSON API?

В настоящее время я работаю над проектом со сложной бизнес-логикой на Symfony 3.

Я хочу использовать JSON API для обеспечения связи между интерфейсом и сервером. Раньше я разрабатывал очень плохо спроектированные API и не особо задумывался о том, как их лучше всего обрабатывать, например, когда у меня было (например)

/resource?include=field1,field2

Я только что проанализировал эти включенные поля в своем действии контроллера. В результате через какое-то время код приложения всегда становился трудным для чтения, повторного использования и сопровождения.

Но теперь меня интересует, как лучше всего обрабатывать запросы, например:

/users?fields[users]=id,first_name,last_name,avatar_src&include=comments&fields[comments]=author,text,likes_count,reposts_count,created_at&sort=-comments.created_at&filter[users][region_id]=3

В приложении есть еще несколько ресурсов, каждый из которых предоставляет множество различных полей (некоторые из которых должны иметь дело с соединениями MySQL для получения), сортировки, фильтры. Более того, каждый ресурс можно расширить с помощью included параметра запроса, чтобы указать, что мы хотим получить дополнительные ресурсы.

Я думал как-то централизовать парсинг входящего запроса в своего рода EventListener, который будет собирать все данные, сопоставлять их с Doctrine Entities и строить какую-то DQL-схему. Действие контроллера поймает его, чтобы вернуть ответ.

Должен ли я попробовать это? А может это тоже очень плохое решение? Не могли бы вы порекомендовать что-нибудь о том, как правильно с этим бороться?


  • Вам следует взглянуть на ApiPlatform. Он основан на Symfony и станет основным API-решением для SF4. Также вам следует изучить информацию об REST. 25.11.2017

Ответы:


1

У меня складывается впечатление, что вы пытаетесь превратить свой API во что-то вроде «SQL через HTTP». Это, очевидно, создаст что-то кластерное из-за количества необязательных параметров.

Возможно, вам следует прочитать эту статью и посмотреть эту лекцию по заданной теме.

Я лично предпочитаю, чтобы конечные точки всегда возвращали одни и те же поля и использовали параметры, когда мне нужно развернуть одно (или несколько) из этих полей, или когда конечная точка содержит коллекцию, и я хочу отфильтровать/разбить результаты на страницы.

Таким образом, «разбор» запроса пользователя становится намного проще.

Также кажется, что ваше поле «включить» предоставляет пользователю возможность добраться до DAL и напрямую возиться с постоянством. В итоге вы получаете слои, пропускающие абстракцию.

25.11.2017
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..