點上方藍色「菜鳥學Python」,選「星標」公眾號
重磅乾貨,第一時間送到
小編最近在和同學聊天的時候,同學就感慨道,如今的各個網站的反扒手段是越來越厲害,前幾天寫的程序,過幾天就沒法用了,尤其像是大流量網站,例如某寶和某東,做的反扒真是越來越難,逼得他程序寫起來也越來越複雜。而我勸他不要再自己造輪子了,快來試試Google的爬蟲插件吧。對於scraper的插件,小編已經為大家準備好,大家只需要下載後,任意解壓到指定的文件夾,然後在chrome瀏覽器中輸入chrome://extensions/。按照下圖的方式進行插件加載即可。
上圖中,首先啟動開發者模式,然後點擊「加載已解壓的擴展程序」。選擇我們解壓好的scraper文件夾,然後點擊選擇文件夾即可完成scraper插件的安裝。
03.如何使用scraper插件
對於scraper的插件使用,下圖所示:
上圖中,首先在開發者模式下打開Scraper,然後創建新的Sitemap,並將網頁的url連結填寫到Start URL中,對於Sitemap name的命名,大家可以隨意進行填寫。點擊Create Sitemap後,即可創建一個新的SItemap。在創建Sitemap後,接下來的操作才是最重要的,如下圖所示:上圖中首先選擇Add new selector,然後在Type中選擇link,並點擊Select。在網頁中點擊不同商品的連結,scraper會自動提取商品的url連結,並生成selector連結,點擊Done selecting即可。上圖中,在點擊Done selecting後,勾選Multiple(因為是爬取多個商品url),這裡的Delay可以採用默認的值,或者是自己添加一個數值。
並點擊Save selector。然後在Sitemap underwear下點擊Scrape,點擊Start Scraping後,scraper便會幫我們爬取到各個商品的url連結。
在上圖的Sitemap underwear下拉菜單下,點擊Export data as CSV後,即可將爬取到的數據保存為csv文件並下載下來。如下圖所示:
怎麼樣,是不是scraper非常的好用,不僅如此,scraper還能夠進行翻頁並爬取多頁的信息。
為了更好的為大家進行展示scraper的運行,並讓大家體驗到scraper的便捷性。小編特地用視頻的方式展現了:
視頻演示
這個插件還是很牛逼的,其實原理就是用selenium 打開chrome瀏覽器進行爬取,只是google這個插件幫我們集成了好了。有興趣的小夥伴可以試一下。
需要這個插件的可以按照下面的方式獲取:
1). 長按下面的二維碼
2). 後臺輸入:插件