亚洲免费在线视频-亚洲啊v-久久免费精品视频-国产精品va-看片地址-成人在线视频网

您的位置:首頁技術文章
文章詳情頁

python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

瀏覽:90日期:2022-07-25 15:24:15

問題描述

背景: Python3 下使用 bs4 的 select 去獲取 ZOZO首頁上方的 coupon 信息中店鋪名字。 (國內ip貌似看不到優惠券信息,需要翻一下才能看到,最好是島國ip)

問題: 發現自己找不到他的店鋪名字在寫在什么地方,不知道怎么取,前端 js 不懂,請教諸位解答。謝謝。

自己的代碼如下:

import requests, bs4shopName = ’BEAUTY&YOUTH’url = ’http://zozo.jp/’def getZozoCoupon(): res = requests.get(url, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'}) res.raise_for_status() soup = bs4.BeautifulSoup(res.text, ’html.parser’) elems = soup.select(’.bnrName’) return elems[0].text.strip()

如下截圖中是想要獲取的文字,python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

發現查看源碼中卻沒有文字。

<p class='couponInfo'> <p class='bnrName'>說好的文字呢。。。</p> <p class='bnrText'></p></p>

請教他的文字是在哪實現的啊,要怎么用bs4 select才出來,謝謝。

問題解答

回答1:

有可能用ajax從服務器獲取之后操作dom動態添加的吧,在瀏覽器里執行了js就文字也被添加進來。而你用爬蟲爬的時候沒有執行有關js所以也沒有添加文字。

要是真的這樣的話,你可以在瀏覽器的f12那里查看network,把獲取文字的那個http請求的url找出來,直接請求這個url獲取你需要的信息。

回答2:

我在瀏覽器中打開http://zozo.jp/查看源代碼并沒有找到你所要找的bnrNamepython - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

回答3:

你在瀏覽器上右鍵“查看網頁源碼”看看能不能找得你那段文字,如果找不到,那網頁應該是用js或者ajax動態加載的,想要爬取這種動態頁面,兩種方法,要么是自己手動模擬請求,要么就用selenium去抓吧

回答4:

確實是js生成的,已經采用headless瀏覽器模擬抓取了,謝謝大家!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美一区二区日韩一区二区 | 国产亚洲人成网站观看 | 美女视频黄a视频免费全过程 | 三级视频中文字幕 | 国产成人美女福利在线观看 | 亚洲欧美日韩国产一区二区精品 | 欧美日韩一区二区三在线 | 暴操美女| 午夜精品视频在线观看美女 | 国产精品久久久久久久久免费hd | 99久久久精品免费观看国产 | 在线观看亚洲天堂 | 国产精品国色综合久久 | 日韩性网 | 欧美一级成人免费大片 | 欧美亚洲一区二区三区四 | 久久精品www| caoporen在线视频入口 | 国产成人丝袜网站在线看 | 中文在线日韩 | 亚洲国产成人精品久久 | 99re最新这里只有精品 | 免费国产一区二区三区 | 97公开视频| 日韩特级黄色片 | 日本毛片在线观看 | 亚洲国产精品第一区二区 | 又刺激又黄的一级毛片 | 免费一级成人免费观看 | 美女与男人对肌免费网站 | 性久久久久久久久 | 日本久草网 | 亚洲综合网址 | 国产精品久久久久久网站 | 先锋影音xfyy5566男人资源 | 国产黄色在线网站 | 页面升级亚洲 | 免费播放特黄特色毛片 | 精品在线一区 | 亚洲最大情网站在线观看 | 亚洲自拍在线观看 |