Я пытаюсь зациклить страницы из этого ссылка и извлеките интересующую часть.
Пожалуйста, смотрите содержимое в красном кружке на изображении ниже.
Вот что я пробовал:
url = 'http://so.eastmoney.com/Ann/s?keyword=购买物业&pageindex={}'
for page in range(10):
r = requests.get(url.format(page))
soup = BeautifulSoup(r.content, "html.parser")
print(soup)
xpath для каждого элемента (может быть полезно для тех, кто не читает по-китайски):
/html/body/div[3]/div/div[2]/div[2]/div[3]/h3/span --> 【润华物业】
/html/body/div[3]/div/div[2]/div[2]/div[3]/h3/a --> 润华物业:关于公司购买理财产品的公告
/html/body/div[3]/div/div[2]/div[2]/div[3]/p/label --> 2017-04-24
/html/body/div[3]/div/div[2]/div[2]/div[3]/p/span --> 公告编号:2017-019 证券代码:836007 证券简称:润华物业 主办券商:国联证券
/html/body/div[3]/div/div[2]/div[2]/div[3]/a --> http://data.eastmoney.com/notices/detail/836007/AN201704250530124271,JWU2JWI2JWE2JWU1JThkJThlJWU3JTg5JWE5JWU0JWI4JTlh.html
Мне нужно сохранить вывод в файл Excel. Как я мог сделать это в Python? Большое спасибо.
GetSearchList
инициирован jquery. Если вы удалите параметр jquery из URL-адреса, вы получите чистый ответ JSON. 02.12.2020Other
02.12.2020for loop
для разбиения страниц на страницы, если хотите. 02.12.2020page
вurl
иheaders
, пожалуйста, проверьте решение ниже. 02.12.2020save_results
, сохранив результат с кадром данных pandas? Кстати, что представляет собой->
в вашем коде? 02.12.2020-> str
указывает тип возвращаемого значения. 03.12.2020