亚洲免费在线视频-亚洲啊v-久久免费精品视频-国产精品va-看片地址-成人在线视频网

您的位置:首頁技術文章
文章詳情頁

python - 為什么用requests庫能爬取而用scrapy卻不能?

瀏覽:113日期:2022-09-08 13:31:18

問題描述

# -*- coding: utf-8 -*-import requestsdef xici_request(): url = ’http://www.xicidaili.com’ headers = {’Accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8’,’Accept-Encoding’: ’gzip, deflate, sdch’,’Accept-Language’: ’zh-CN,zh;q=0.8’,’Cache-Control’: ’max-age=0’,’Connection’: ’keep-alive’,’Host’: ’www.xicidaili.com’,’Referer’: ’https://www.google.com/’,’User-Agent’: ’Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’ res = requests.get(url, headers=headers) print(res.text)if __name__ == ’__main__’: xici_request()

# -*- coding: utf-8 -*-import scrapyfrom collectips.items import CollectipsItemclass XiciSpider(scrapy.Spider): name = 'xici' allowed_domains = ['http://www.xicidaili.com'] headers = {’Accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8’, ’Accept-Encoding’: ’gzip, deflate, sdch’, ’Accept-Language’: ’zh-CN,zh;q=0.8’, ’Cache-Control’: ’max-age=0’, ’Connection’: ’keep-alive’, ’Host’: ’www.xicidaili.com’, ’Referer’: ’https://www.google.com/’, ’User-Agent’: ’Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’} def start_requests(self):reqs = []for i in range(1, 21): req = scrapy.Request(’http://www.xicidaili.com/nn/{}’.format(i), headers=self.headers) reqs.append(req)return reqs def parse(self, response):item = CollectipsItem()sel = response.selectorfor i in range(2, 102): item[’IP’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[2]/text()’.format(i)).extract() item[’PORT’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[3]/text()’.format(i)).extract() item[’DNS_POSITION’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[4]/a/text()’.format(i)).extract() item[’TYPE’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[6]/text()’.format(i)).extract() item[’SPEED’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[7]/p[@title]’.format(i)).extract() item[’LAST_CHECK_TIME’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[10]/text()’.format(i)).extract() yield item

代碼如上,為什么requests能返回網頁內容,而scrapy卻是報錯內部服務器錯誤500? 請大神解救??

問題解答

回答1:

并發你沒考慮進去吧,當同一時間發起過多的請求會直接封你IP

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 成人免费午间影院在线观看 | 在线观看国产日韩 | 午夜综合网 | 成人国产精品高清在线观看 | 真人一级毛片国产 | 精品国产免费观看 | 精品国产杨幂在线观看福利 | 免费人成黄页网站在线观看国产 | 国产成人一区二区三区在线播放 | 亚洲一区免费在线观看 | 久久久久无码国产精品一区 | 欧美在线一区二区三区不卡 | 国产伦精品一区二区三区精品 | 日本精品一区二区三区在线视频一 | 国产成人午夜精品5599 | 日本黄网站高清色大全 | 日本欧美做爰全免费的视频 | 男女男精品视频网站在线观看 | 日本男人的天堂 | 青青青免费手机版视频在线观看 | 久久成人在线 | 欧美成人久久一级c片免费 欧美成人看片黄a免费 | 美国一级毛片不卡无毒 | 国产成人精品久久一区二区小说 | 偷自拍第一页 | 美国成人免费视频 | 欧美a大片欧美片 | 成人做爰全视频 | 在线a亚洲视频播放在线观看 | 中文字幕综合在线 | 久久久9视频在线观看 | 国产偷国产偷亚洲高清午夜 | 欧美日韩精品一区二区另类 | 久久久久国产一级毛片高清板 | 最刺激黄a大片免费观看 | 欧美国产在线一区 | 在线观看免费为成年视频 | 女人把腿劈开让男人桶的网站 | 欧美不卡在线视频 | 国产青草 | 国产aⅴ精品一区二区三区久久 |