色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術(shù)文章
文章詳情頁

python爬取新聞門戶網(wǎng)站的示例

瀏覽:32日期:2022-06-21 10:53:43
項目地址:

https://github.com/Python3Spiders/AllNewsSpider

如何使用

每個文件夾下的代碼就是對應(yīng)平臺的新聞爬蟲

py 文件直接運行 pyd 文件需要,假設(shè)為 pengpai_news_spider.pyd

將 pyd 文件下載到本地,新建項目,把 pyd 文件放進去

項目根目錄下新建 runner.py,寫入以下代碼即可運行并抓取

import pengpai_news_spiderpengpai_news_spider.main()示例代碼

百度新聞

# -*- coding: utf-8 -*-# 文件備注信息 如果遇到打不開的情況,可以先在瀏覽器打開一下百度搜索引擎import requestsfrom datetime import datetime, timedeltafrom lxml import etreeimport csvimport osfrom time import sleepfrom random import randintdef parseTime(unformatedTime): if ’分鐘’ in unformatedTime:minute = unformatedTime[:unformatedTime.find(’分鐘’)]minute = timedelta(minutes=int(minute))return (datetime.now() -minute).strftime(’%Y-%m-%d %H:%M’) elif ’小時’ in unformatedTime:hour = unformatedTime[:unformatedTime.find(’小時’)]hour = timedelta(hours=int(hour))return (datetime.now() -hour).strftime(’%Y-%m-%d %H:%M’) else:return unformatedTimedef dealHtml(html): results = html.xpath(’//div[@class='result-op c-container xpath-log new-pmd']’) saveData = [] for result in results:title = result.xpath(’.//h3/a’)[0]title = title.xpath(’string(.)’).strip()summary = result.xpath(’.//span[@class='c-font-normal c-color-text']’)[0]summary = summary.xpath(’string(.)’).strip()# ./ 是直接下級,.// 是直接/間接下級infos = result.xpath(’.//div[@class='news-source']’)[0]source, dateTime = infos.xpath('.//span[last()-1]/text()')[0], infos.xpath('.//span[last()]/text()')[0]dateTime = parseTime(dateTime)print(’標題’, title)print(’來源’, source)print(’時間’, dateTime)print(’概要’, summary)print(’n’)saveData.append({ ’title’: title, ’source’: source, ’time’: dateTime, ’summary’: summary}) with open(fileName, ’a+’, encoding=’utf-8-sig’, newline=’’) as f:writer = csv.writer(f)for row in saveData: writer.writerow([row[’title’], row[’source’], row[’time’], row[’summary’]])headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36’, ’Referer’: ’https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&word=%B0%D9%B6%C8%D0%C2%CE%C5&fr=zhidao’}url = ’https://www.baidu.com/s’params = { ’ie’: ’utf-8’, ’medium’: 0, # rtt=4 按時間排序 rtt=1 按焦點排序 ’rtt’: 1, ’bsst’: 1, ’rsv_dl’: ’news_t_sk’, ’cl’: 2, ’tn’: ’news’, ’rsv_bp’: 1, ’oq’: ’’, ’rsv_btype’: ’t’, ’f’: 8,}def doSpider(keyword, sortBy = ’focus’): ’’’ :param keyword: 搜索關(guān)鍵詞 :param sortBy: 排序規(guī)則,可選:focus(按焦點排序),time(按時間排序),默認 focus :return: ’’’ global fileName fileName = ’{}.csv’.format(keyword) if not os.path.exists(fileName):with open(fileName, ’w+’, encoding=’utf-8-sig’, newline=’’) as f: writer = csv.writer(f) writer.writerow([’title’, ’source’, ’time’, ’summary’]) params[’wd’] = keyword if sortBy == ’time’:params[’rtt’] = 4 response = requests.get(url=url, params=params, headers=headers) html = etree.HTML(response.text) dealHtml(html) total = html.xpath(’//div[@id='header_top_bar']/span/text()’)[0] total = total.replace(’,’, ’’) total = int(total[7:-1]) pageNum = total // 10 for page in range(1, pageNum):print(’第 {} 頁nn’.format(page))headers[’Referer’] = response.urlparams[’pn’] = page * 10response = requests.get(url=url, headers=headers, params=params)html = etree.HTML(response.text)dealHtml(html)sleep(randint(2, 4)) ...if __name__ == '__main__': doSpider(keyword = ’馬保國’, sortBy=’focus’)

以上就是python爬取新聞門戶網(wǎng)站的示例的詳細內(nèi)容,更多關(guān)于python爬取新聞門戶網(wǎng)站的資料請關(guān)注好吧啦網(wǎng)其它相關(guān)文章!

標簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 亚洲精品国产高清不卡在线 | 日本一区二区三区不卡在线视频 | 久久精品国产精品亚洲20 | 欧美 自拍 丝袜 亚洲 | 国产原创一区二区 | 亚洲特级黄色片 | 日韩精品一区二区三区在线观看 | 一级特黄色毛片免费看 | 久久美女精品国产精品亚洲 | 97精品福利视频在线 | 亚洲欧洲日韩在线 | 成年女人午夜免费视频 | 日韩欧美理论 | 香蕉依依精品视频在线播放 | 男女精品视频 | 国产三级a三级三级三级 | 在线视频免费观看a毛片 | 日韩一级在线视频 | 久久精品二三区 | 亚洲制服欧美自拍另类 | 欧美精品久久久久久久久大尺度 | 无码免费一区二区三区免费播放 | 亚洲欧美国产高清va在线播放 | 三级c欧美做人爱视频 | 国产91精品久久久久久久 | 亚洲第一区视频在线观看 | 99re思思 | 国产成人免费网站 | 亚洲aⅴ | 久久综合久久自在自线精品自 | 二区中文字幕 | 午夜免费一级片 | 亚洲第一网站 | 国产三级a三级三级天天 | 日本午夜vr影院新入口 | www中文字幕在线观看 | 欧美成人艳星在线播放 | 台湾精品视频在线播放 | 在线观看视频一区二区三区 | 欧美精品hdxxxxx | 亚洲福利视频一区二区三区 |