Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架。可以應用在包括數據挖掘,信息處理或存儲歷史數據等一系列的程序中。
目錄
安裝
測試
新建工程
創建spider文件(以豆瓣電影為例)
架構(綠線是數據流向)
運作流程(個人理解)
製作步驟
在item中指明爬取欄位
編寫spider/movie.py
數據存至資料庫
其他
最後
pip安裝,可能會報錯:
pip install Scrapy
anaconda安裝,推薦:
conda install -c conda-forge scrapy
scrapy
scrapy startproject <工程名>
如
scrapy startproject douban
創建的目錄結構
scrapy genspider <項目名> <爬取域>
如
cd doubanscrapy genspider movie movie.douban.com
將在spiders文件夾下自動創建movie.py,並自動生成內容:
可以看出,要建立一個Spider, 你必須用scrapy.Spider類創建一個子類,並確定了三個強制的屬性 和 一個方法。
如「名稱」、「評分」、「簡介」
在item.py中修改為:
class DoubanItem(scrapy.Item): name = scrapy.Field() rating_num = scrapy.Field() quote = scrapy.Field()
1、選擇目標的xpath(也可以css等其他選擇器)
2、提取出公共部分
3、由於豆瓣有反爬驗證,因此需要加上header
def start_requests(self): url = 'http://movie.douban.com/top250/' yield scrapy.Request(url, headers=self.headers)
通過start_requests函數,對於運行後第一次訪問請求,就加上了請求頭。因此,start_urls其實也可以不加。
4、為了方便調試,新建spider/main.py,並寫入
from scrapy.cmdline import executeexecute(["scrapy", "crawl", "movie", "-o", "item.json"])
5、測試一下效果
class MovieSpider(scrapy.Spider): name = 'movie' allowed_domains = ['movie.douban.com/top250'] start_urls = ['http://movie.douban.com/top250/'] headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'} def start_requests(self): url = 'http://movie.douban.com/top250/' yield scrapy.Request(url, headers=self.headers) def parse(self, response): for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'): print(each.xpath('./div/div[2]/div[1]/a/span[1]').extract())
運行main.py
要提取中間的文字,則在xpath後面再添加「/text()」
6、類似地,完善parse()函數
from ..items import DoubanItem
def parse(self, response): # 將得到的數據封裝到一個DoubanItem對象,就是在items.py裡的 item = DoubanItem() for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'): name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first() rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first() quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first() item['name'] = name item['rating_num'] = rating_num item['quote'] = quote yield item
7、運行main.py後,在spider/item.json裡將看到爬取的數據,以Unicode字符形式。
8、還可以保存為其他形式,如csv、xml,只需將item.json改為item.csv等。
數據存至資料庫
1、建庫建表
mysql -uroot -p Enter password:create database scrapy;use scrapy;create table movie(id int auto_increment primary key, name varchar(255),rating varchar(10), quote varchar(255))default charset=utf8;
2、在setting.py中配置資料庫連接
mysql_movie = { 'host': "127.0.0.1", "port": 3306, "user": "root", "password": "pwd", "db": "scrapy"}
3、在setting.py中將以下內容取消注釋
4、在pipelines.py中連接資料庫存儲數據
pip install pymysql
# -*- coding: utf-8 -*-# Define your item pipelines here## Don't forget to add your pipeline to the ITEM_PIPELINES setting# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.htmlfrom .settings import mysql_movieimport pymysqlclass DoubanPipeline: def __init__(self): self.host = mysql_movie["host"] self.port = mysql_movie["port"] self.user = mysql_movie["user"] self.password = mysql_movie["password"] self.db = mysql_movie["db"] self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user, password=self.password, db=self.db, charset='utf8') self.cursor = self.conn.cursor() def process_item(self, item, spider): sql ='''insert into movie(name, rating, quote)values('%s','%s','%s')''' % (item["name"], item["rating_num"], item["quote"]) try: self.cursor.execute(sql) self.conn.commit() except: self.conn.rollback() return item
5、運行main.py後,查詢資料庫
select * from movie;
URL跟進(翻頁);在parse函數最後,跟新以下URL,scrapy框架會自動發起下一次請求
def parse(self, response): # 將得到的數據封裝到一個DoubanItem對象 item = DoubanItem() for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'): name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first() rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first() quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first() item['name'] = name item['rating_num'] = rating_num item['quote'] = quote yield item next_url = response.xpath('//*[@id="content"]/div/div[1]/div[2]/span[3]/link/@href').extract() if next_url: next_url = 'https://movie.douban.com/top250' + next_url[0] print(next_url) yield scrapy.Request(next_url, headers=self.headers)
為了做一個乖爬蟲,且避免面向監獄編程,建議在setting.py至少開啟以下兩項:
相信你跟我一樣,過完本文,對scrapy已經有了一個大致的了解。