用Java 拿下 HTML,分分鐘寫個小爬蟲!

2021-01-09 CSDN

作者 | HelloGitHub-秦人

HelloGitHub 推出的《講解開源項目》系列,今天給大家帶來一款開源 Java 版一款網頁元素解析框架——jsoup,通過程序自動獲取網頁數據。

項目源碼地址:https://github.com/jhy/jsoup

項目介紹

jsoup 是一款 Java 的 HTML 解析器。可直接解析某個 URL 地址的 HTML 文本內容。它提供了一套很省力的 API,可通過 DOM、CSS 以及類似於 jQuery 選擇器的操作方法來取出和操作數據。

jsoup 主要功能:

從一個 URL、文件或字符串中解析 HTML。使用 DOM 或 CSS 選擇器來查找、取出數據。可操作 HTML 元素、屬性、文本。

使用框架

2.1 準備工作

掌握 HTML 語法Chrome 瀏覽器調試技巧掌握開發工具 idea 的基本操作2.2 學習源碼

將項目導入 idea 開發工具,會自動下載 maven 項目需要的依賴。源碼的項目結構如下:

快速學習源碼是每個程式設計師必備的技能,我總結了以下幾點:

閱讀項目 ReadMe 文件,可以快速知道項目是做什麼的。概覽項目 pom.xml 文件,了解項目引用了哪些依賴。查看項目結構、源碼目錄、測試用例目錄,好的項目結構清晰,層次明確。運行測試用例,快速體驗項目。2.3 下載項目

git clone https://github.com/jhy/jsoup

2.4 運行項目測試代碼

通過上面的方法,我們很快可知 example 目錄是測試代碼,那我們直接來運行。註:有些測試代碼需要稍微改造一下才可以運行。

例如,jsoup 的 Wikipedia 測試代碼:

publicclassWikipedia {publicstaticvoidmain(String[] args) throws IOException {Document doc = Jsoup.connect("http://en.wikipedia.org/").get(); log(doc.title()); Elements newsHeadlines = doc.select("#mp-itn b a");for (Element headline : newsHeadlines) { log("%s\n\t%s", headline.attr("title"), headline.absUrl("href")); } }privatestaticvoidlog(String msg, String... vals) { System.out.println(String.format(msg, vals)); }}

說明:上面代碼是獲取頁面(http://en.wikipedia.org/)包含(#mp-itn b a)選擇器的所有元素,並列印這些元素的 title , herf 屬性。維基百科 國內無法訪問,所以上面這段代碼運行會報錯。

改造後可運行的代碼如下:

publicstaticvoidmain(String[] args) throws IOException {Document doc = Jsoup.connect("https://www.baidu.com/").get(); Elements newsHeadlines = doc.select("a[href]");for (Element headline : newsHeadlines) { System.out.println("href: " +headline.absUrl("href") ); }}

工作原理

Jsoup 的工作原理,首先需要指定一個 URL,框架發送 HTTP 請求,然後獲取響應頁面內容,然後通過各種選擇器獲取頁面數據。整個工作流程如下圖:

以上面為例:

3.1 發請求

Document doc = Jsoup.connect("https://www.baidu.com/").get();

這行代碼就是發送 HTTP 請求,並獲取頁面響應數據。

3.2 數據篩選

Elements newsHeadlines = doc.select("a[href]");

定義選擇器,獲取匹配選擇器的數據。

3.3 數據處理

for (Element headline : newsHeadlines) { System.out.println("href: " +headline.absUrl("href") ); }

這裡對數據只做了一個簡單的數據列印,當然這些數據可寫入文件或數據的。

實戰

獲取豆瓣讀書 -> 新書速遞中每本新書的基本信息。包括:書名、書圖片連結、作者、內容簡介(詳情頁面)、作者簡介(詳情頁面)、當當網書的價格(詳情頁面),最後將獲取的數據保存到 Excel 文件。

目標連結:https://book.douban.com/latest?icn=index-latestbook-all

4.1 項目 pom.xml 文件

項目引入 jsoup、lombok、easyexcel 三個庫。

<?xml version="1.0" encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>org.example</groupId><artifactId>JsoupTest</artifactId><version>1.0-SNAPSHOT</version><properties><maven.compiler.target>1.8</maven.compiler.target><maven.compiler.source>1.8</maven.compiler.source></properties><dependencies><dependency><groupId>org.jsoup</groupId><artifactId>jsoup</artifactId><version>1.13.1</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><version>1.18.12</version></dependency><dependency><groupId>com.alibaba</groupId><artifactId>easyexcel</artifactId><version>2.2.6</version></dependency></dependencies></project>

4.2 解析頁面數據

publicclassBookInfoUtils {publicstatic List<BookEntity> getBookInfoList(String url) throws IOException {List<BookEntity> bookEntities=new ArrayList<>(); Document doc = Jsoup.connect(url).get(); Elements liDiv = doc.select("#content > div > div.article > ul > li");for (Element li : liDiv) { Elements urls = li.select("a[href]"); Elements imgUrl = li.select("a > img"); Elements bookName = li.select(" div > h2 > a"); Elements starsCount = li.select(" div > p.rating > span.font-small.color-lightgray"); Elements author = li.select("div > p.color-gray"); Elements description = li.select(" div > p.detail"); String bookDetailUrl = urls.get(0).attr("href"); BookDetailInfo detailInfo = getDetailInfo(bookDetailUrl); BookEntity bookEntity = BookEntity.builder() .detailPageUrl(bookDetailUrl) .bookImgUrl(imgUrl.attr("src")) .bookName(bookName.html()) .starsCount(starsCount.html()) .author(author.text()) .bookDetailInfo(detailInfo) .description(description.html()) .build();// System.out.println(bookEntity); bookEntities.add(bookEntity); }return bookEntities; }/** * * @param detailUrl * @return * @throws IOException */publicstatic BookDetailInfo getDetailInfo(String detailUrl)throws IOException{ Document doc = Jsoup.connect(detailUrl).get(); Elements content = doc.select("body"); Elements price = content.select("#buyinfo-printed > ul.bs.current-version-list > li:nth-child(2) > div.cell.price-btn-wrapper > div.cell.impression_track_mod_buyinfo > div.cell.price-wrapper > a > span"); Elements author = content.select("#info > span:nth-child(1) > a"); BookDetailInfo bookDetailInfo = BookDetailInfo.builder() .author(author.html()) .authorUrl(author.attr("href")) .price(price.html()) .build();return bookDetailInfo; }}

這裡的重點是要獲取網頁對應元素的選擇器。

例如:獲取 li.select("div > p.color-gray") 中 div > p.color-gray 是怎麼知道的。

使用 chrome 的小夥伴應該都猜到了。打開 chrome 瀏覽器 Debug 模式,Ctrl + Shift +C 選擇一個元素,然後在 html 右鍵選擇 Copy ->Copy selector,這樣就可以獲取當前元素的選擇器。如下圖:

4.3 存儲數據到 Excel

為了數據更好查看,我將通過 jsoup 抓取的數據存儲的 Excel 文件,這裡我使用的 easyexcel 快速生成 Excel 文件。

Excel 表頭信息

@Data@BuilderpublicclassColumnData{@ExcelProperty("書名稱")private String bookName;@ExcelProperty("評分")private String starsCount;@ExcelProperty("作者")private String author;@ExcelProperty("封面圖片")private String bookImgUrl;@ExcelProperty("簡介")private String description;@ExcelProperty("單價")private String price;}

生成 Excel 文件

publicclassEasyExcelUtils{publicstatic void simpleWrite(List<BookEntity> bookEntityList) { String fileName = "D:\\devEnv\\JsoupTest\\bookList" + System.currentTimeMillis() + ".xlsx"; EasyExcel.write(fileName, ColumnData.class).sheet("書本詳情").doWrite(data(bookEntityList)); System.out.println("excel文件生成完畢..."); }privatestaticList<ColumnData> data(List<BookEntity> bookEntityList) {List<ColumnData> list = new ArrayList<>(); bookEntityList.forEach(b -> { ColumnData data = ColumnData.builder() .bookName(b.getBookName()) .starsCount(b.getStarsCount()) .author(b.getBookDetailInfo().getAuthor()) .bookImgUrl(b.getBookImgUrl()) .description(b.getDescription()) .price(b.getBookDetailInfo().getPrice()) .build();list.add(data); });returnlist; }}

4.4 最終展示效果

最終的效果如下圖:

以上就是從想法到實踐,我們就在實戰中使用了 jsoup 的基本操作。

完整代碼地址:https://github.com/hellowHuaairen/JsoupTest

最後

Java HTML Parser 庫:jsoup,把它當成簡單的爬蟲用起來還是很方便的吧?

為什麼會講爬蟲?大數據,人工智慧時代玩的就是數據,數據很重要。作為懂點技術的我們,也需要掌握一種獲取網絡數據的技能。當然也有一些工具 Fiddler、webscraper 等也可以抓取你想要的數據。

教程至此,你應該也能對 jsoup 有一些感覺了吧。編程是不是也特別有意思呢?參考我上面的實戰案例,有好多網站可以實踐一下啦~

相關焦點

  • JAVA中的File類的操作與小爬蟲的製作
    File類(java.io.File;)Java中所有的目錄都被當成File 對待,它直接處理文件和文件系統。也就是說,File類沒有指定信息怎樣從文件讀取或向文件存儲;它描述了文件本身的屬性。File對象用來獲取或處理與磁碟文件相關的信息,例如權限,時間,日期和目錄路徑。
  • python爬蟲-urllib、urllib2、requests三者關係
    抓取始終是一個很大的需求,小到單個頁面,某個站點,大到搜尋引擎(百度、谷歌)的全網抓取。只要人能看到的東西,理論上都是爬蟲可以獲取的。不論靜態頁面還是動態頁面。也不論pc端的頁面還是移動端的app。話有點大,但這就是本系列的目的。
  • Python爬蟲學到什麼程度就可以去找工作了?
    確立目標、了解需求首先我們要先定位自己的目標,當然我們先以爬蟲工程師來做個說明。去招聘網上看看需求都有哪些,直接做個拉勾網爬蟲(有需要的私信)出結果了:仔細看看,我們可以得出以下幾點:1、 python 不是唯一可以做爬蟲的,很多語言都可以,
  • python爬蟲入門實戰!爬取博客文章標題和連結!
    最近有小夥伴和我留言想學python爬蟲,那麼就搞起來吧。準備階段爬蟲有什麼用呢?舉個最簡單的小例子,你需要《戰狼2》的所有豆瓣影評。最先想的做法可能是打開瀏覽器,進入該網站,找到評論,一個一個複製到文本中,保存,翻頁,接著複製,直到翻到最後一頁。
  • 從零開始寫Python爬蟲,四大工具你值得擁有!
    如果你正在學習編程,那麼「爬蟲」絕對是你不可忽視的。那麼,學習python爬蟲之前需要哪些準備?一顆熱愛學習,不屈不撓的心一臺有鍵盤的電腦(什麼系統都行。我用的os x,所以例子會以這個為準)html相關的一些知識。
  • python開發爬蟲有門檻嗎?
    01用python開發爬蟲你需要擁有前端知識爬蟲是什麼?爬蟲其實是一個抓取網際網路信息的一個功能or一個軟體。爬蟲的工作原理很簡單,你給它一個地址,它自己就會按照你編寫好的邏輯,一步一步獲取你想要的網頁或者app的特定信息。
  • 使用Scrapy網絡爬蟲框架小試牛刀
    說人話就是只要是搞爬蟲的,用這個就van事了,因為裡面集成了一些很棒的工具,並且爬取性能很高,預留有很多鉤子方便擴展,實在是居家爬蟲的不二之選。文件代碼解釋如下如果大家在學習中遇到困難,想找一個python學習交流環境,可以加入我們的python裙,關注小編,並私信「01」即可進裙,領取python學習資料,會節約很多時間,減少很多遇到的難題。
  • 手把手教你寫網絡爬蟲:Web應用的漏洞檢測實戰篇!
    作為剛入門的安全小白,對其工作原理產生了濃厚的興趣,逐漸深層剝離Web應用漏洞檢測的本質是網絡爬蟲技術與漏洞檢測技術的結合,網絡爬蟲主要爬取網站結構並收集可能存在的攻擊面,漏洞檢測技術則是在爬蟲結果的基礎上進行針對性的修改並重放,根據伺服器響應進行判斷。在本篇文章中,我們將重點介紹爬蟲技術方面的知識。
  • 5分鐘快速學習掌握python爬蟲Beautifulsoup解析網頁
    python爬蟲用Beatifulsoup庫解析網頁提取所需元素新手看懂個人觀點:之前我們有講過爬蟲和網頁的一些聯繫,網頁的一些組成部分,爬蟲就是對網頁裡面的數據進行提取然後對其進行數據處理我們分成三部分來完成今天的工作:第一部分:使用Beautifulsoup來解析解析網頁,首先我們講一下這個Beautifulsoup庫,我們用來解析網頁和提取網頁元素的模塊並不止這個,有Xpath ,re正則表達式,urllib,小夥伴們可以都去了解一下其他的
  • 5分鐘!用Java實現目標檢測|PyTorch
    這篇來自AWS軟體工程師的投稿,結合實例,詳細介紹了DJL這個為Java開發者設計的深度學習庫:5分鐘,你就能在PyTorch上,用Java實現目標檢測。5分鐘,用Java實現目標檢測文 / 知乎用戶@LankingPyTorch在深度學習領域中的應用日趨廣泛,得益於它獨到的設計。無論是數據的並行處理還是動態計算圖,一切都為Python做出了很多簡化。
  • 5分鐘!用Java實現目標檢測 | PyTorch
    這篇來自AWS軟體工程師的投稿,結合實例,詳細介紹了DJL這個為Java開發者設計的深度學習庫:5分鐘,你就能在PyTorch上,用Java實現目標檢測。5分鐘,用Java實現目標檢測文 / 知乎用戶@LankingPyTorch在深度學習領域中的應用日趨廣泛,得益於它獨到的設計。
  • Python新手爬蟲,簡單製作抓取廖雪峰的教程的小爬蟲
    在整個抓取過程中,除了普通的文本以外,還需要處理 3個地方,分別是:代碼、圖片、視頻,因為目前只寫到了文本文件,所以直接抓到圖片或者視頻的地址,標識清楚後寫入到 txt,這裡可以在進一步,寫到 word/pdf 或者其他文件,留待以後改進!
  • 網絡小爬蟲莫墮落成小扒手
    公信寶被查,就是因為非法收集支付寶、微信、京東、淘寶、信用卡帳單、芝麻信用分、學信數據等,恣意盜竊網民的信息,特別是交易用戶敏感數據。公信寶流傳在市場上的一份2018年產品價格服務表明碼標價,清清楚楚地介紹了不同數據的等級和單價,聯手與P2P平臺合作,從中牟利。在大數據防控公司中,低成本獲取數據的捷徑是爬蟲技術。
  • 初學者如何用「python爬蟲」技術抓取網頁數據?
    在當今社會,網際網路上充斥著許多有用的數據。我們只需要耐心觀察並添加一些技術手段即可獲得大量有價值的數據。而這裡的「技術手段」就是指網絡爬蟲。 今天,小編將與您分享一個爬蟲的基本知識和入門教程:什麼是爬蟲?
  • Python破解反爬蟲:最新反爬蟲有道翻譯中英文互譯破解,附代碼
    由於爬蟲的出現,導致很多網頁都設置了反爬蟲機制:常見的反爬蟲機制就是在客戶端發出請求的時候,在請求的內容中新增一些內容,而這些內容都是經過「加密的」,每次請求都是不同的,這樣就導致了很多傳統的爬蟲失效。
  • 浪跡都市的小爬蟲
    滑板車風靡全世界,都市爬蟲正是他們當中的佼佼者,它那優越的性能和獨特的外形使其它眾多的滑板車黯然失色。不知道從什麼時候開始,一些五顏六色的小東西載著一個個陽光少男少女在街道上「爬」過,成為一道別致的風景。這些小車就是今天要給大家介紹的「都市爬蟲」系列的電動滑板車,和一般的電動車比,它們的個頭小、色彩鮮豔。  還有小爬蟲自行車,車把還有座位都可以摺疊,甚至車框都可以!
  • Python 爬蟲面試題 170 道:2019 版
    正則表達式88.使用正則表達式匹配出<html><h1>www.baidu.com</html>中的地址a="張明 98 分",用 re.sub,將 98 替換為 10089.正則表達式匹配中(.*)和(.*?)匹配區別?
  • 拿來就能用!用爬蟲秒搶到孩子心儀的幼兒園|CSDN 博文精選
    作者 | 馬超來源 | CSDN博客又快到了幼兒園報名的季節了,身邊很多朋友有很多都說起要高價請槍手幫助秒殺報名的,其實幼兒園報名本質上還是一個比較簡單的任務,粗略來看這只是一個網頁爬蟲加自動答題的需求。去年博主為孩子進行幼兒園報名時用了Selenium+Python的方式,效果不錯。
  • Java transient關鍵字使用小記
    然而在實際開發過程中,我們常常會遇到這樣的問題,這個類的有些屬性需要序列化,而其他屬性不需要被序列化,打個比方,如果一個用戶有一些敏感信息(如密碼,銀行卡號等),為了安全起見,不希望在網絡操作(主要涉及到序列化操作,本地序列化緩存也適用)中被傳輸,這些信息對應的變量就可以加上transient關鍵字。換句話說,這個欄位的生命周期僅存於調用者的內存中而不會寫到磁碟裡持久化。
  • Python,爬蟲開發的不二選擇
    如果我們把網際網路比作一張大的蜘蛛網,數據便是存放於蜘蛛網的各個節點,而爬蟲就是一隻小蜘蛛,沿著網絡抓取自己的獵物(數據)。爬蟲指的是:向網站發起請求,獲取資源後分析並提取有用數據的程序。如今,人類社會已經進入了大數據時代,如何高效的獲取數據,已經成了各個網際網路公司的技術研發重點,掌握爬蟲技術已經成為了大數據公司技術人員不可或缺的一項技能。