Python爬蟲之App爬蟲視頻下載的實現

2021-02-07 python初學

前言

隨著手app的發展逐漸強大,我們手機應用每天的生活也是非常的多。那我們怎麼用python編程知道他的數據是怎麼形成的,通過電腦端如何爬取。相信大家也有這樣的問題。下面我將講解這些操作流程。

一、操作流程

首先我們要有

fidder4

夜神模擬器

pycharm

python3.0或以上版本

 二、fidder4抓包

1.fidder配置

首先我們先下載fidder,
打開Fiddler,點擊Tools => Options 打開配置選項,切換到第二個標籤頁HTTPS,先在這裡打勾


然後就是點下面如圖所示的單選框,點擊Actions,運行第一個Trust Root Certificate。後面會有一個框,記得點擊確定。

打開Fiddler,點擊Tools => Options… 打開配置選項,切換到第三個標籤頁Connections,修改如圖所示的地方,埠號可任意修改,這裡使用我自定的9999,請記住自己設置的埠號,後面有需要使用的地方。

2.模擬器配置

我們為什麼使用模擬器,因為由於Fidder抓包,要在區域網環境下,我們大部分電腦都是以寬帶連接,所以我這裡就以模擬器講解抓包,後續我會更新一期fidder手機抓包。

這裡們先打模擬器,設置模擬器的代理。我們先查看自己的本機IP,通過cmd命令輸入ipconfig即可查看本機的ip,我的本機IP是192.168.1.2

這裡打開模擬器的設置,找到我們WLAN用點擊,我們看到我們的wifi,用滑鼠點擊時間長一點,它會出現設置的,下面我用視頻給大家看一下


我們本機ip進行代理哦

3.模擬器證書安裝

我們用模擬器打開瀏覽器,輸入我們本機ip加埠,就是 192.168.1.2:9999


點擊這個下載證書,下載完成後安裝證書,命名隨便命名。密碼自己要記錄。
上述如果都做成功了,應該就沒什麼問題了。

三、fidder4解析視頻網站


這是我們模擬器裡的app,app名字我會在下面評論發出。

這裡的所和上面的正好相對應,這裡相信我們大家都找到了,
我們可以把fidder抓包到的數據在這裡,這個是我們的數據網址
https://v.6.cn/coop/mobile/index.php?act=recommend&padapi=minivideo-getlist.php&page=1
我們通過模擬器視頻往下滑,可以知道它是分頁的,那樣會有好多小姐姐視頻哦,
https://v.6.cn/coop/mobile/index.php?act=recommend&padapi=minivideo-getlist.php&page=2
這裡就是第二頁的數據,這個時候就可以通過pycharm進行解析了。

pycharm編寫app代碼

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

import requests

import json

def Demo(page):

 url='https://v.6.cn/coop/mobile/index.php?act=recommend&padapi=minivideo-getlist.php&page={}'.format(page)

 

 header={

  'User-Agent':'XY0xDgIxDAS)wgtOthPHTn5AQUVFdXLOCRwSdEhX5PGQFmlHo6n22D)bw973lz13W2)XlZe8pKEpEEdBTgmU4ricT3kQENEI04ATJcbg2VsnEcvoVttmTXpq7r)sVToAdNLqmaxF1B6HFigkhXgO(f)rCw@@'

 }

 

 response = requests.get(url,headers=header,verify=False).json()

 data=response['content']['list']   #由於網站是json數據我們可以通過json解析,然後在進行數據的爬取

 for i in data:

  title =i['title'] #這裡爬取的是視頻標題

  playurl=i['playurl']  #這裡是爬取的視頻的url

  Video(title,playurl)

 

def Video(title,playurl):

 header = {

  'User-Agent': 'XY0xDgIxDAS)wgtOthPHTn5AQUVFdXLOCRwSdEhX5PGQFmlHo6n22D)bw973lz13W2)XlZe8pKEpEEdBTgmU4ricT3kQENEI04ATJcbg2VsnEcvoVttmTXpq7r)sVToAdNLqmaxF1B6HFigkhXgO(f)rCw@@'

 }

 response = requests.get(playurl,headers=header,verify=False)

 # 文件寫入異常機制

 try:

    #由於寫入可以會有點出錯,我們要加一個異常處理機制,這樣可以提高我們的程序性能。

  with open('VIdeo/{}.mp4'.format(title),'ab') as f:

   f.write(response.content)

 except Exception as e:

  print(e)

 

for i in range(1,11):

 Demo(i)

總結

以上就是今天要講的內容,本文簡單的對fidder配置與模擬器的證書安裝,通過fidder監視app傳輸的數據進行解析,我們知道此網址有分頁功能 ,最後我們通過pycharm編寫程序,這些操作看似繁瑣,其實看懂了,就很簡單。

到此這篇關於Python爬蟲之App爬蟲視頻下載的實現的文章就介紹到這了,更多相關Python App爬蟲視頻下載內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以後多多點 在看 支持

也許是最全python資料!(文檔+項目+資料)私信關鍵詞「python」 和努力的人一起學習Java!

相關焦點

  • 使用Python爬蟲實現自動下載圖片
    python爬蟲支持模塊多、代碼簡潔、開發效率高 ,是我們進行網絡爬蟲可以選取的好工具。
  • Python爬蟲大數據採集與挖掘(PPT、代碼、視頻)
    PPT、代碼和視頻配套教學和學習資料的獲取方法如下:1、教學用的PPT下載連結(網盤): https://pan.baidu.com/s/1PuF1N9mxnkMeYKgnnUBz3w 提取碼: 5c4y (如果連結失效,請轉至留言處獲得最新下載方法)分別對應於書的章節,共有12個PPT。
  • Python爬蟲的兩套解析方法和四種爬蟲實現
    對於大多數朋友而言,爬蟲絕對是學習python的最好的起手和入門方式。
  • 通過python非常簡單的實現一個功能強大的爬蟲
    學習python的重要性我這裡就不贅述了。本文主要是通過python簡單的來實現一個功能強大的爬蟲。讓零基礎的小白們體會python的強大,和簡單,主要是簡單!那麼言歸正傳,我們進入正題。       首先我們需要了解什麼是爬蟲。爬蟲,或者說叫網絡爬蟲。
  • Python學習之路----爬蟲
    相關python庫爬蟲需要兩個庫模塊:requests和re1. requests庫requests是比較簡單易用的HTTP庫,相較於urllib會簡潔很多,但由於是第三方庫,所以需要安裝,文末附安裝教程連結(連結全在後面,這樣會比較方便看吧,貼心吧~)requests庫支持的HTTP特性:保持活動和連接池、Cookie持久性會話、分段文件上傳
  • Python爬蟲之urllib庫—爬蟲的第一步
    第一個爬蟲代碼的實現我想應該是從urllib開始吧,博主開始學習的時候就是使用urllib庫敲了幾行代碼就實現了簡單的爬數據功能,我想大多夥伴們也都是這麼過來的
  • Python爬蟲之使用celery加速爬蟲
    關於celery的更多介紹及例子,筆者可以參考文章Python之celery的簡介與使用。  本文將介紹如何使用celery來加速爬蟲。  本文爬蟲的例子來自文章:Python爬蟲的N種姿勢。這裡不再過多介紹,我們的項目結構如下:項目結構其中,app_test.py為主程序,其代碼如下:from celery import Celeryapp = Celery('proj', include=['proj.tasks'])app.config_from_object('proj.celeryconfig')if __
  • Python爬蟲之Scrapy框架介紹
    框架就是將平常寫爬蟲的request (異步調度和處理)、下載器(多線程的 Downloader)、解析器(selector)和 twisted(異步處理)封裝到了一起,夠成了框架。而且使用起來更加方便,爬取速度更快。
  • 推薦18個Python爬蟲實戰案例
    目錄爬蟲小工具爬蟲實戰筆趣看小說下載VIP視頻下載百度文庫文章下載_rev1百度文庫文章下載_rev2《帥啊》網帥哥圖片下載構建代理IP池《火影忍者》漫畫下載財務報表下載小助手一小時入門網絡爬蟲抖音App視頻下載_rev1
  • 小白學 Python 爬蟲(6):前置準備(五)爬蟲框架的安裝
    主要是內容有些多,小編怕寫在一起各位同學看不下去,所以才分成多篇內容(悄悄的說,這樣小編也能多推幾天嘛)。pyspider 安裝pyspider 是由國人 binux 開源的強大的網絡爬蟲框架。pyspider 自帶 WebUI (這個很關鍵),這樣我們可以實時的看到更多的數據,並且它還帶有腳本編輯器、任務監控器、項目管理器以及結果處理器,同時支持多種資料庫後端、多種消息隊列,還支持JavaScript渲染頁面的爬取,異常強大。
  • 18個Python爬蟲實戰案例(已開源)
    點擊上方「Python技術之巔」,馬上關注,每天下午17:40準時推送目錄爬蟲小工具爬蟲實戰筆趣看小說下載VIP視頻下載百度文庫文章下載_rev1百度文庫文章下載_rev2《帥啊》網帥哥圖片下載構建代理IP池
  • Python爬蟲之selenium可視化爬蟲!最詳細的教程!
    之所以把selenium爬蟲稱之為可視化爬蟲主要是相較於前面所提到的幾種網頁解析的爬蟲方式
  • Python 爬蟲的工具列表
    網絡爬蟲框架功能齊全的爬蟲grab – 網絡爬蟲框架(基於pycurl/multicur)。scrapy – 網絡爬蟲框架(基於twisted),不支持Python3。pyspider – 一個強大的爬蟲系統。cola – 一個分布式爬蟲框架。
  • python教程網絡爬蟲 數據分析師視頻
    C#教程視頻零基礎入門到精通全套自學編程設計項目實戰串口上位機2020廖雪峰python教程網絡爬蟲 數據分析師視頻 數據挖掘商業爬蟲室內水電圖紙講解專業課程 cad系統識圖工家裝弱電路施工視頻教程3D遊戲編程完整全套零基礎入門自學unity 3D視頻教程源碼項目實戰PyQt5視頻教程全套源碼實戰項目python GUI開發
  • Python 爬蟲代理池
    ,搭建了一套穩定的代理池服務,為上千個爬蟲提供有效的代理,保證各個爬蟲拿到的都是對應網站有效的代理IP,從而保證爬蟲快速穩定的運行,當然在公司做的東西不能開源出來。是做分布式爬蟲很好中間存儲工具。答案肯定是做成服務咯,python有這麼多的web框架,隨便拿一個來寫個api供爬蟲調用。這樣有很多好處,比如:當爬蟲發現代理不能使用可以主動通過api去delete代理IP,當爬蟲發現代理池IP不夠用時可以主動去refresh代理池。這樣比檢測程序更加靠譜。
  • Python爬蟲學習教程 bilibili網站視頻爬取!【附源碼】
    學好python,才能玩轉python,那到底怎麼才能學好python?通過爬取b站案例帶領你快速掌握爬蟲,掌握學習技巧~帶你揭開編程最神秘的面紗,解決學習路上的迷惑·~項目源碼 import requests '''編寫爬蟲的過程中 有兩種寫法 基於html去分析網頁數據並刪選 因為有些同學沒有接觸過前端 可能看不懂前端代碼 ** 使用瀏覽器去分析這個網站的接口
  • Python爬蟲的起點
    一、Python有哪些網絡庫在真實瀏覽網頁我們是通過滑鼠點擊網頁然後由瀏覽器幫我們發起網絡請求,那在Python中我們又如何發起網絡請求的呢?答案當然是庫,具體哪些庫?豬哥給大家列一下:Python網絡請求庫有點多,而且還看見網上還都有用過的,那他們之間有何關係?又該如何選擇?
  • 利用python爬蟲實現上網帳號驗證登陸
    在一些不方便使用可視界面的情況下,可以利用python爬蟲工具實現上網帳號的驗證登陸。
  • Python爬蟲——培訓
    Python這門程式語言包羅萬象,可以說掌握了python,除了一些特殊環境和高度的性能要求,Python 越來越適合於做科學計算。網絡爬蟲(又被稱為網頁蜘蛛,網絡機器人,在 FOAF 社區中間,更經常的稱為網頁追逐者),是一種按照一定的規則,自動的抓取全球資訊網信息的程序或者腳本。
  • Python爬蟲實例之——小說下載
    這是小詹關於爬蟲的第②篇文章!