python代碼福利:用requests爬取B站視頻封面

2020-12-22 樂百川評遊戲

最近看到一篇文章介紹了利用Python爬蟲爬取B站視頻封面的文章,雖然我完全沒看文章,但是只看了一眼這個封面圖就徹底把我吸引了。不過我也對爬蟲這方面比較熟悉了,這麼簡單的事情還用看別人的文章教我做事?當然是自己動手豐衣足食啦!

(此處請自行想像.JPG)

確定思路

首先自然是先用F12開發者工具看看這個頁面的樣子了。這一步簡直順利的無懈可擊,一下子就找到了封面圖的地址,就是下圖紅框所示的地址。在瀏覽器中打開看看,果然正是這個封面圖。但是話又說回來,這個封面圖是不是小了點?這就要說到圖片CDN的一個功能了,如果大家有用過這類服務的話,一般這種圖片服務都支持按照尺寸加載圖片,也就是這個地址最後的320w_240h。如果是這樣的話,那麼我們把它改成大尺寸的1920*1080,不就是可以得到高清大圖了嗎?這麼一嘗試果然如此,好了,那麼問題就解決了。

封面圖地址

解決異步加載

但是實際操作的時候,又遇到了一個問題。那就是代碼完全正確,但是結果卻一個網頁元素都獲取不到了。這可讓我百思不得其解,百般嘗試之後無奈再回頭看看人家的文章是怎麼說的。原來B站的網頁是異步加載的,如果用爬蟲直接獲取的話,只會得到如下圖所示的空空如也的頁面,實際的網頁內容都是通過JavaScript執行以後獲得的。比較遺憾的是,我嘗試用requests-html的render函數渲染瀏覽器實際頁面,也沒有成功。

沒有實際內容的網頁內容

這時候就要說回到異步加載了,既然這些信息是異步加載出來的,那麼我們看看能否從網頁中找到一些線索。實際上還真有這麼一個東西,就是下圖中search這個請求,它請求的地址是api開頭的網址,一般都是幹返回JSON數據的。如果不好找的話,可以從紅框那裡選擇篩選類別來進行更詳細的查找。總之,這個請求就是我們要找的東西,它返回的正是當前頁面的封面圖JSON數據,最關鍵的是,它這裡的圖片直接就是1920*1080高清大圖,直接省了不少事情。而且這個請求的參數直接就包含了頁數,所以我們只要取到總頁數,用這個api拉圖片地址就完事了。

尋找加載方式

實際代碼和效果

好了,下面就是最終的代碼了。代碼按照函數來組織,應該非常容易理解,因為我這裡使用視頻封面圖的標題來當做文件名,所以可能會出現不能當做文件名的非法字符。因此我還加了一個函數專門來去除非法字符。默認圖片保存路徑是桌面,可以更改到其他位置。

部分代碼截圖

from requests_html import HTMLSessionuserinfo_url = 'https://space.bilibili.com/72956117/video'save_folder = r'~/Desktop/images'def get_total_page(): session = HTMLSession() response = session.get(userinfo_url) response.html.render() total_page = response.html.find('span.be-pager-total', first=True).text return int(total_page[2:-3])def get_image_urls(): base_url = 'https://api.bilibili.com/x/space/arc/search?mid=72956117&ps=30&tid=0&pn={0}&keyword=&order=pubdate&jsonp=jsonp' session = HTMLSession() for i in range(1, get_total_page()+1): url = base_url.format(i) response = session.get(url) for i in response.json()['data']['list']['vlist']: yield {'name': i['title'], 'url': 'https:'+i["pic"]}def remove_unvalid_chars(s): for c in r'''"'<>/\|:*?''': s = s.replace(c, '') return sdef download_images(): import pathlib import requests import shutil folder = pathlib.Path(save_folder).expanduser() if not folder.exists(): folder.mkdir() for i in get_image_urls(): response = requests.get(i['url'], stream=True) filename = remove_unvalid_chars(i["name"])+'.jpg' with open(folder/filename, 'wb') as f: shutil.copyfileobj(response.raw, f) print(f'{i["name"]}.jpg下載完成')download_images()運行完畢之後就可以得到滿滿一個文件夾的圖片了,然後就可以一個人找個閒暇時間靜靜的欣賞了。喜歡的朋友記得點個讚哦!

此處請繼續自行想像

相關焦點

  • Python爬取B站彈幕並製作詞雲圖
    代碼實現部分 1、請求網頁獲取原始碼數據 爬取這些數據是需要加上cookie的,如果沒有加cookie的話會顯示你未登錄帳號 所以需要在headers裡面添加cookie
  • 我用Python爬取英雄聯盟所有的英雄信息
    思路:爬取到網頁數據之後並生成到excel中,涉及到爬蟲和python處理excel的導出 一、代碼 import json import requestsimport xlwt
  • python 爬蟲爬取酷我音樂
    用到的python庫import requestsimport jsonimport timeimport osfrom urllib import parse爬蟲其實挺好學的,能夠從網頁裡,分析並提取有用的信息才是關鍵。
  • Python爬取某境外網站漫畫,心血來潮,爬之
    t=1某年某月某日,重溫某本漫畫,心血來潮,爬之!!!通過靜態爬取漫畫所有章節的url連結信息以及集數信息。2. 通過動態爬取每集漫畫的所有篇幅。3. 每集漫畫保存至相應本地文件夾中。import osimport numpy as npimport pandas as pdimport requestsimport reimport timefrom bs4 import BeautifulSoupfrom selenium import webdriver 39;lxml&39;mh-chapter-list-ol-0&34;a&34;http
  • python 爬蟲學習路線:從入門到進階
    但掌握正確的方法,在短時間內做到能夠爬取主流網站的數據,其實非常容易。在目標的驅動下,你的學習才會更加精準和高效。那些所有你認為必須的前置知識,都是可以在完成目標的過程中學到的。這裡給你一條平滑的、快速入門的學習路徑。本文依舊需要有一些python基礎,至少要求掌握python語法。
  • Python爬蟲入門教程:超級簡單的Python爬蟲教程
    如果用人體來比喻,HTML 是人的骨架,並且定義了人的嘴巴、眼睛、耳朵等要長在哪裡。CSS 是人的外觀細節,如嘴巴長什麼樣子,眼睛是雙眼皮還是單眼皮,是大眼睛還是小眼睛,皮膚是黑色的還是白色的等。JScript 表示人的技能,例如跳舞、唱歌或者演奏樂器等。
  • 實戰|手把手教你用Python爬取存儲數據,還能自動在Excel中可視化
    來源 | 早起Python大家好,在之前我們講過如何用Python構建一個帶有GUI的爬蟲小程序,很多本文將迎合熱點,延續上次的NBA爬蟲GUI,探討如何爬取虎撲NBA官網數據,並且將數據寫入Excel中同時自動生成折線圖,主要有以下幾個步驟:本文將分為以下兩個部分進行講解:
  • python爬蟲100個入門項目
    >19caoliu 102420E紳士21Girl-atlas22girl1323github trending24Github 倉庫及用戶分析爬蟲25國家統計用區劃代碼和城鄉劃分代碼爬蟲>66秒爬,python爬蟲中的多線程,多進程,協程67爬取下來的數據怎麼保存?
  • python爬蟲篇二:HTTP協議六大方法
    遠程主機拒絕我們被禁止更改主機上的文件,但是可以爬取網站上的文件,實現爬蟲的目的就很滿足了。正規的網站都會在主目錄下放一個「robots.txt」。這裡面寫了禁止爬蟲爬取的內容,其實就是為了限制像「百度爬蟲」「搜狗」這樣的合法爬蟲。對於我們這些小爬蟲,我們不去遵守,自然就沒用了。下面是百度主頁下的robots文檔,在瀏覽器上就可以查看。baidu.com/robots.txtdisallow表示禁止爬取的目錄。
  • Python基礎進階之海量表情包多線程爬蟲功能的實現
    這篇文章主要介紹了Python基礎進階之海量表情包多線程爬蟲,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑑價值,需要的朋友可以參考下一、前言在我們日常聊天的過程中會使用大量的表情包
  • python爬取二次元肥宅最喜歡的壁紙圖片,看過的都說愛了
    所以… 爬它 相關python開發工具 Python 3.6 Pycharm requests parsel 相關模塊pip安裝即可 一、獲取詳情頁url地址以及標題
  • Python漫畫爬蟲:B站!爬取輝夜大小姐等漫畫
    今天我們要爬取這個網站的《輝夜大小姐想讓我告白》漫畫(窮人靠科技,富人靠硬幣,懂,不多說)主要就兩步:1.在主界面找到所有話的連結 2.在每一話找到該話的所有圖片需要源碼的直接翻到最後當然,不同網站結構不同,爬取方式也有些許不同。比如動漫之家——參考自這裡.
  • 喜歡用Python做爬蟲嗎?進度條了解下?自製一個進度條模塊!
    有的同學可能已經想到了,有2種辦法:一個是來自sys庫的sys.stdout.write()函數可以替代print的一個函數,具體的大家可以自行查找相關資料哦,我們今天用第二種辦法:print本身就有可以實現的辦法,比如下面的代碼,大家可以運行下!這段代碼會生成一個緩緩前行的『>』,是不是很簡單。
  • Python,爬蟲開發的不二選擇
    方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放於資料庫或文件中爬蟲要做的就是方式2。用這個框架可以輕鬆爬下來如亞馬遜商品信息之類的數據。
  • 入門Python爬蟲——獲取數據篇
    而Python爬蟲,簡單來說,即通過Python程序獲取對我們有用的數據。常用於商業分析,不過偶爾也可以輔助我們解決在日常生活中遇到的一些問題。首先,在爬蟲中最常見的代碼便是:即引入requests庫,是一切爬蟲程序的基礎。在Python中,有許多庫可以供我們使用。這也是Python相對於其它程式語言的一大優勢。
  • 看綜藝是為了學爬蟲,最後居然搞的深度學習,這Python課也是絕了
    普通Python學習讓人倦同學們,這次我們要學習用Python來做爬蟲,爬取的是深度學習的訓練資料。估計這麼一說,大部分同學是這樣的。少部分同學可能覺得爬蟲和深度學習比較時髦,還能硬著頭皮來聽講,但心裡肯定直打鼓,「這肯定是從入門到放棄吧?」
  • 第7天|10天搞定Python網絡爬蟲,Scrapy爬更快
    說了好幾天用requests進行網絡爬蟲編程了,是時候換成專業,高效率的爬蟲庫--Scrapy了。我之所以一開始用requests,就想告訴你,網絡爬蟲,方法挺多的,合適就行。還有在之前說的各種解析庫,在Scrapy中,也會經常用到,特別是Lxml的XPath。如果之前不說,留到現在還得說。
  • python定時獲取天氣數據並自動發送到郵箱
    自動發送郵件,python幾行代碼來搞定!我們說到如何用python來實現自動發送郵件。另一種是通過python爬取相關天氣預報網頁的內容,從裡面提取相關的信息。由於之前沒有給大家介紹過相關爬蟲的知識,所以這裡採用第一種方法。以後再陸續介紹爬蟲怎麼去獲取天氣預報信息。
  • Python開發簡單爬蟲【學習資料總結】
    ;另一方面,會將新的URL補充進URL管理器,若有URL管理器中含有新的URL,則重複上述步驟,直到爬取完所有的URL 6、最後,調度器會調動應用的方法,將價值數據輸出到需要的格式。
  • 零基礎如何用 15 行 Python 代碼搞定網易雲熱門歌單?
    健身、吃飯、敲代碼;等車、擼貓、下午茶……若能佐以合適的音樂當「配餐」,總是愜意非常。本文就將帶你爬一爬網易雲的那些熱門歌單!作者 | 上海小胖責編 | 仲培藝心情好或心情壞,點一首歌撫慰你受傷或躁動的心靈——下面教你用 15 行代碼搞定熱門歌單!