色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術文章
文章詳情頁

python實現三種隨機請求頭方式

瀏覽:5日期:2022-06-30 13:02:04

相信大家在爬蟲中都設置過請求頭 user-agent 這個參數吧? 在請求的時候,加入這個參數,就可以一定程度的偽裝成瀏覽器,就不會被服務器直接識別為spider.demo.code ,據我了解的,我很多讀者每次都是直接從network 中去復制 user-agent 然后把他粘貼到代碼中, 這樣獲取的user-agent 沒有錯,可以用, 但是如果網站反爬措施強一點,用固定的請求頭可能就有點問題, 所以我們就需要設置一個隨機請求頭,在這里,我分享一下我自己一般用的三種設置隨機請求頭方式

思路介紹:

其實要達到隨機的效果,很大程度上我們可以利用隨機函數庫random 這個來實現,可以調用random.choice([user-agent]) 隨機pick數組中一個就可以了,這是我的一種方式。

python作為一個擁有眾多第三方包的語言,自然就有可以生成隨機請求頭的包咯,沒錯,就是fake-useragent 這個第三方庫了,稍后我們介紹一下這個函數庫的簡單使用。

既然別人可以寫第三方庫,自然自己也可以實現一個這樣的功能,大部分情況下,我很多代碼都是直接調用我自己實現的一個GetUserAgentCS 類,直接就可以獲取一個隨機請求頭了,直接寫函數庫,才牛逼舒服, 這個我也會在下面介紹如何編寫函數庫。

自己編寫第三方庫:

不知道你們寫代碼的框架是怎樣的,面向過程還是面向對象? 對于一次性的代碼,就簡單的編碼就行了,如果你覺得這個代碼它可以會在很多的地方用得到,可以重復使用,那么你就可以使用類的方式,去編寫這個代碼,那么在其他的文件中,你就可以直接調用你的寫這個文件,直接調用你寫的class類中的各種方法,而我也是這樣實現的一個隨機請求頭的一個第三方庫, 如下:

import randomimport csvclass GetUserAgentCS(object): ''' 調用本地請求頭文件, 返回請求頭 ''' def __init__(self): with open(’D://pyth//scrapy 項目//setting//useragent.csv’, ’r’) as fr: fr_csv = csv.reader(fr) self.user_agent = [str(i[1]) for i in fr_csv] def get_user(self): return random.choice(self.user_agent)

useragent文件如下:

1,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36'2,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/30.0.1599.17 Safari/537.36'3,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; NetBSD) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36'4,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; CrOS i686 3912.101.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36'5,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36'-------------- # too much 100...

代碼很簡單的,讀取本地的csv文件,然后random一個出去就行了,那現在就有人問我,你這個文件怎么來的, 很簡單啊,自然就有方法了,待會在下一個模塊我會講到,在這里,我們只需要編寫一個GetUserAgentCS類就可以,代碼可以直接抄我上面的,然后保存為get_useragent.py 就可以了,然后你把這個包文件放在你自己爬蟲文件夾的地方,然后這樣調用:

from get_useragent import GetUserAgentCSheaders = {}ua = GetUserAgentCS().get_user()headers[’user-agent’] = uareturn headers

如果你在這個調用GetUserAgentCS 不成功, 或者底下會出現紅色的波浪線, 那么就是你沒有設置當前工作環境,你只需要這么設置(設置你的爬蟲文件夾):

python實現三種隨機請求頭方式

你需要點擊 Sources Root 就可以了!

使用第三方庫 fake-useragent:

這是一個別人已經寫好的第三方庫,你需要安裝然后調用API 就可以了, 它可以獲取各種的請求頭,唯一的缺點就是 請求不穩定,有的時候網絡波動就可能導致獲取不成功,用于Scrapy中,不是很舒服,所以我在這個包的基礎上,編寫了如上我自己的包,至于請求頭的數據怎么來的, 就是在這個包運行正常時候,一直更改user-agent,然后不斷的請求 http://httpbin.org/user-agent 然后不斷的保存數據,寫入本地文件就可以了。

我們還是講一講這個包的使用方式吧!

安裝

pip install fake-useragent

你可以 pip list 查看一下 是否安裝成功

使用方式

from fake_useragent import UserAgentheaders= {’User-Agent’:str(UserAgent().random)}r = requests.get(url, headers=headers) UserAgent().random 可以獲取任意瀏覽器的請求頭 UserAgent().Chrome 可以獲取谷歌瀏覽器的請求頭 UserAgent().firefox 可以獲取火狐瀏覽器的請求頭

這個時候,直接用random就可以了,簡單。

讀取內存數組:

這個時候就有很多人說, 我就換個請求頭而已,需要這么麻煩嗎? 當然,自然有簡單的方式,只不過每次都需要復制來用,不是很方法,具體如下:

ua = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/30.0.1599.17 Safari/537.36''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; NetBSD) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36']

預先把請求頭放入數組里面,然后用就可以了。

import randomua = [.....]r = requests.get(url, headers={'user-agent':random.choice(ua)})

以上就是我關于請求頭的幾種設置方式了,有需要補充的可以評論區留言。

教你用三種方式設置隨機請求頭, 爬蟲設置請求頭(user-agent)是必然的,那如何生成一個隨機請求頭這個也是我們爬蟲必須掌握的, 讀完本篇文章你就可以輕松掌握 !

到此這篇關于python實現三種隨機請求頭方式的文章就介紹到這了,更多相關python 隨機請求頭內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日本精品一区二区三区视频 | 欧美视频在线观看网站 | 99re6这里有精品热视频在线 | 国产成人一区二区在线不卡 | 中文字幕久久亚洲一区 | 男人桶女人暴爽的视频 | 最新亚洲精品国自产在线 | 久久免费高清视频 | 69欧美另类xxxxx高清 | 久久亚洲高清观看 | 老司机午夜在线视频免费观 | 免费看孕妇毛片全部播放 | 99热久久国产综合精品久久国产 | 欧美成人免费全部观看天天性色 | 亚洲国产欧美精品一区二区三区 | 亚洲国产精品久久久久 | 日韩精品特黄毛片免费看 | 一区二区三区四区在线播放 | 免费看欧美日韩一区二区三区 | 久久香蕉国产视频 | 国产一区二区免费在线观看 | 91精品综合久久久久m3u8 | 欧美特黄特色aaa大片免费看 | 精品一区二区在线观看 | 国产精品亚欧美一区二区三区 | 男子操女子 | 男人的天堂在线观看视频不卡 | 99久久99视频 | 国产精品 色| 亚洲精品一区二区手机在线 | 国产欧美日韩精品第二区 | 国产中文字幕视频 | 性高湖久久久久久久久 | 国产精品毛片一区 | 八戒午夜精品视频在线观看 | 91精品成人免费国产片 | 爱视频福利广场 | 日本卡一卡2卡3卡4精品卡无人区 | 三级网址在线观看 | 北条麻妃在线一区二区 | 手机看片福利在线 |