色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術(shù)文章
文章詳情頁

python scrapy簡(jiǎn)單模擬登錄的代碼分析

瀏覽:105日期:2022-06-14 18:21:16

1、requests模塊。直接攜帶cookies請(qǐng)求頁面。

找到url,發(fā)送post請(qǐng)求存儲(chǔ)cookie。

2、selenium(瀏覽器自動(dòng)處理cookie)。

找到相應(yīng)的input標(biāo)簽,輸入文本,點(diǎn)擊登錄。

3、scrapy直接帶cookies。

找到url,發(fā)送post請(qǐng)求存儲(chǔ)cookie。

# -*- coding: utf-8 -*-import scrapyimport re class GithubLoginSpider(scrapy.Spider): name = ’github_login’ allowed_domains = [’github.com’] start_urls = [’https://github.com/login’] def parse(self, response): # 發(fā)送Post請(qǐng)求獲取Cookiesauthenticity_token = response.xpath(’//input[@name='authenticity_token']/@value’).extract_first()utf8 = response.xpath(’//input[@name='utf8']/@value’).extract_first()commit = response.xpath(’//input[@name='commit']/@value’).extract_first()form_data = { ’login’: ’[email protected]’, ’password’: ’123456’, ’webauthn-support’: ’supported’, ’authenticity_token’: authenticity_token, ’utf8’: utf8, ’commit’: commit}yield scrapy.FormRequest('https://github.com/session', formdata=form_data, callback=self.after_login) def after_login(self, response): # 驗(yàn)證是否請(qǐng)求成功print(re.findall(’Learn Git and GitHub without any code!’, response.body.decode()))

知識(shí)點(diǎn)擴(kuò)展:

parse_login方法是提交完表單后callback回調(diào)函數(shù)指定要執(zhí)行的方法,為了驗(yàn)證是否成功。這里我們直接在response中搜索Welcome Liu這個(gè)字眼就證明登錄成功。

這個(gè)好理解,重點(diǎn)是yield from super().start_resquests(),這個(gè)代表著如果一旦登錄成功后,就直接帶著登錄成功后Cookie值,方法start_urls里面的地址。

這樣的話登錄成功后的response可以直接在parse里面寫。

# -*- coding: utf-8 -*-import scrapyfrom scrapy import FormRequest,Requestclass ExampleLoginSpider(scrapy.Spider): name = 'login_' allowed_domains = ['example.webscraping.com'] start_urls = [’http://example.webscraping.com/user/profile’] login_url = ’http://example.webscraping.com/places/default/user/login’ def parse(self, response):print(response.text) def start_requests(self):yield scrapy.Request(self.login_url,callback=self.login) def login(self,response):formdata = { ’email’:’[email protected]’,’password’:’12345678’}yield FormRequest.from_response(response,formdata=formdata,callback=self.parse_login) def parse_login(self,response):# print(’>>>>>>>>’+response.text)if ’Welcome Liu’ in response.text: yield from super().start_requests()

到此這篇關(guān)于python scrapy簡(jiǎn)單模擬登錄的代碼分析的文章就介紹到這了,更多相關(guān)python scrapy模擬登錄的方法內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: python scrapy requests
主站蜘蛛池模板: 一区高清| 国产成人精品三级 | 在线亚州 | 亚洲国产一 | 91精品国产乱码久久久久久 | 精品无码一区在线观看 | 久草免费看 | 精品国产三级v | 免费a级毛片无码 | 国产成年人在线观看 | 欧美黄色成人 | 精品欧美高清不卡在线 | 快色网站 | 欧美成人免费全部观看天天性色 | 欧美乱大交xxxxx在线观看 | 91久久| 亚洲在线欧美 | 亚洲国产精品aaa一区 | 成人在线免费 | 日韩国产精品99久久久久久 | 久久日本三级韩国三级 | 免费视频久久看 | 免费看a级 | 美女黄频网站 | 国产成人aa在线视频 | 色偷偷成人网免费视频男人的天堂 | 亚洲国产精品网站久久 | 亚洲一区毛片 | 日本高清视频一区二区 | 日本aa级片| 久久精品一区二区三区不卡牛牛 | 欧美色88| 九九精品免费视频 | 国产亚洲精品国产一区 | 欧美黄色免费 | 亚洲国产日韩a在线亚洲 | 久草资源在线视频 | 成视频年人黄网站免费 | 国产精品日韩欧美在线第3页 | 国产欧美成人xxx视频 | 免费a级毛片网站 |