亚洲免费在线视频-亚洲啊v-久久免费精品视频-国产精品va-看片地址-成人在线视频网

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:116日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日本一级特黄a大片在线 | 久久这里一区二区精品 | 国产区精品在线 | 久久不见久久见免费影院 | 国产男女猛烈无遮档免费视频网站 | 在线 | 一区二区三区四区 | 欧美黑大粗硬毛片视频 | 久草在在线视频免费 | zztt40.su黑料不打烊官网 | 欧美中文字幕一区二区三区 | 亚洲一区二区三区在线 | 欧美精品高清在线观看 | 91久久国产综合精品女同国语 | 欧美日韩亚洲国产精品 | 三级全黄a | 成人在免费视频手机观看网站 | 色老头oldmoneyvideos | 天天插夜夜爽 | 国产午夜亚洲精品一区网站 | 国产成人精品免费视频网页大全 | 狠狠色丁香久久综合网 | 精品一久久香蕉国产二月 | 亚洲va精品中文字幕动漫 | 国产精品久久久久久久久久一区 | 亚洲精品韩国美女在线 | 久久综合给会久久狠狠狠 | 九九免费精品视频在这里 | 最新国产中文字幕 | 手机亚洲第一页 | 亚洲自偷自偷图片在线高清 | 亚洲精品免费网站 | 欧美精品一区二区三区免费观看 | 免费日本视频 | 亚洲精品综合欧美一区二区三区 | 日本一在线中文字幕天堂 | 亚洲情a成黄在线观看动 | 亚洲伦乱 | 午夜国产高清精品一区免费 | 日本特黄特色 | 夜夜爱夜夜爽夜夜做夜夜欢 | 99久久精品免费精品国产 |