色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術(shù)文章
文章詳情頁

Python Scrapy多頁數(shù)據(jù)爬取實(shí)現(xiàn)過程解析

瀏覽:145日期:2022-07-21 14:49:48

1.先指定通用模板

url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板pageNum = 1

2.對(duì)parse方法遞歸處理

parse第一次調(diào)用表示的是用來解析第一頁對(duì)應(yīng)頁面中的數(shù)據(jù)

對(duì)后面的頁碼的數(shù)據(jù)要進(jìn)行手動(dòng)發(fā)送

if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動(dòng)請(qǐng)求(get)的發(fā)送 yield scrapy.Request(new_url,callback=self.parse)

完整示例

class QiubaiSpider(scrapy.Spider): name = ’qiubai’ # allowed_domains = [’www.xxx.com’] start_urls = [’https://www.qiushibaike.com/text/’] url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板 pageNum = 1 #parse第一次調(diào)用表示的是用來解析第一頁對(duì)應(yīng)頁面中的段子內(nèi)容和作者 def parse(self, response): div_list = response.xpath(’//*[@id='content-left']/div’) all_data = [] for div in div_list: author = div.xpath(’./div[1]/a[2]/h2/text()’).extract_first() content = div.xpath(’./a[1]/div/span//text()’).extract() content = ’’.join(content) # 將解析的數(shù)據(jù)存儲(chǔ)到item對(duì)象 item = QiubaiproItem() item[’author’] = author item[’content’] = content # 將item提交給管道 yield item # item一定是提交給了優(yōu)先級(jí)最高的管道類 if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動(dòng)請(qǐng)求(get)的發(fā)送 yield scrapy.Request(new_url,callback=self.parse)

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 久草新 | 在线视频中文 | 中文字幕一区二区三区 精品 | 高清毛片aaaaaaaaa片 | 久草在线看| 2022国产91精品久久久久久 | 国产精品人成 | 国产免费人成在线看视频 | 美国一级毛片片aa久久综合 | 国产高清天干天天视频 | 一区二区中文字幕在线观看 | 一区二区三区四区免费视频 | 手机在线看a | 成人午夜久久 | 国产younv真实 | 国产人成精品综合欧美成人 | 2022国产91精品久久久久久 | 国产高清自拍 | 久久成人综合网 | 免费成人毛片 | 成在线人视频免费视频 | 日韩视频在线观看一区 | 麻豆第一页 | 久久久国产一区二区三区 | 草久久免费视频 | 免费看黄色的网址 | 成人黄激情免费视频 | 久久国产精品最新一区 | 久草在线视频免费看 | 欧美视频一区二区三区在线观看 | 精品国产午夜久久久久九九 | 一级片一区 | 一级白嫩美女毛片免费 | 男人操美女 | 男女午夜免费视频 | 日韩欧美一区二区久久 | 亚洲一区中文字幕 | 纯欧美一级毛片免费 | 国产大臿蕉香蕉大视频 | 亚洲国产精品久久久久久网站 | 久久机热综合久久国产 |