python爬蟲26 | 把數據爬取後就存儲到MySQL

2020-09-05 學習python的正確姿勢

小帥b說過

在這幾篇中會著重說說將爬取下來的數據進行存儲

上次我們說了一種 csv 的存儲方式

這次主要來說說怎麼將爬取下來的數據保存到 MySQL 資料庫

接下來就是

學習python的正確姿勢

真香假設

本文假設你已經安裝好MySQL

並且懂了一些 MySQL 的使用

例如簡單「增刪改查」的語句

如果你還沒安裝 MySQL

可以到以下連結去安裝一下

https://www.mysql.com/downloads/

在你的 MySQL 中創建一個資料庫吧

就叫...

AV-Idol

用 root 的身份進入你的 MySQL


sudo mysql -u root -p

輸入 MySQL 的用戶名密碼之後

就可以開始操作 MySQL 啦

我們來創建一個資料庫

如果 avIdol 這個資料庫不存在於我們的 MySQL 裡面

那就創建一個出來



mysql> create database if not exists avIdol;Query OK, 1 row affected (0.01 sec)

這樣

我們就創建出一個資料庫了

接下來

我們就使用 python 來操作這個資料庫吧

我們需要使用到 pymysql 這個庫

專門用來操作 MySQL 的

可以用 pip 安裝一下


 pip install pymysql

接下來我們就連接到我們剛剛創建的資料庫

然後在這個資料庫裡面創建一張 beautyGirls 表

專門用來存放漂亮美眉的信息


















import pymysql34;你的資料庫地址&34;資料庫帳號&34;資料庫密碼&34;avIdol& 接著我們獲取 cursor 來操作我們的 avIdol 這個資料庫cursor = db.cursor()34;&34;create table beautyGirls ( name char(20) not null, age int)&34;& 最後我們關閉這個資料庫的連接db.close()

運行一下

沒報什麼錯就說明我們成功創建數據表了

我們回到資料庫看下是否創建成功

通過 show tables

可以看到我們資料庫成功創建了 beautyGirls 這張婊,哦不,表

通過 show full columns from beautyGirls;

可以看到我們在這張表中創建了 name 和 age 這兩個欄位

有了資料庫和數據表了

那麼接下來我們就往資料庫插入數據看看





















import pymysql34;localhost&34;root&34;root&34;avIdol& 接著我們獲取 cursor 來操作我們的 avIdol 這個資料庫cursor = db.cursor()34;insert into beautyGirls(name, age) values (&39;, 18)& 回滾 db.rollback()34;delete from beautyGirls where age = &39;&39;xsb.csv& 當engine連接的時候我們就插入數據engine = create_engine(&39;)with engine.connect() as conn, conn.begin(): df.to_sql(&39;, conn, if_exists=&39;)

運行一下

然後打開我們剛剛創建的 xsb 資料庫查詢一下

可以看到

我們就將 csv 中的內容插入到資料庫啦

ok

以上就是使用 python 操作資料庫的具體操作

以後小帥b在爬蟲項目例子中還會提及 MySQL

那麼

我們下回見

peace

相關焦點

  • github項目推薦|2019 冠狀病毒疫情爬蟲。疫情數據可視化
    ncov_2019_spider2019 冠狀病毒疫情爬蟲。疫情數據可視化。mysql 5.7 用於存儲從mogodb採集的數據python 3.7 採集數據和轉換mongodb數據到mysql工程在win10 和 macOS 下測試通過。
  • Python視頻教程網課編程零基礎入門數據分析網絡爬蟲全套Python...
    項目 15flask框架 17愛家租房項目 18通用爬蟲模塊使用 19Mongodb資料庫 20爬蟲scrapy框架及案例 21數據分析 22機器學習 23深度學習 24數據結構和算法 25python網絡爬蟲 26機器學習入門篇 27
  • 6大Python爬蟲實戰項目(附源碼教程)
    有很多人在剛開始學習Python的時候,都特別期待能用Python寫一個爬蟲腳本,小編這裡總結幾個實戰項目,如果你想學習Python爬蟲的話,可以挑選感興趣的學習【python 網站信息爬蟲】該項目使用 Python 語言及 scrapy 開發一個網絡信息爬蟲,爬取實驗樓的課程數據,並將爬取的課程信息保存在一個
  • 實戰Python爬取拉勾網職位數據
    今天寫的這篇文章是關於python爬蟲簡單的一個使用,選取的爬取對象是著名的招聘網站——拉鉤網,由於和大家的職業息息相關,所以爬取拉鉤的數據進行分析,對於職業規劃和求職時的信息提供有很大的幫助。完成的效果爬取數據只是第一步,怎樣使用和分析數據也是一大重點,當然這不是本次博客的目的,由於本次只是一個上手的爬蟲程序,所以我們的最終目的只是爬取到拉鉤網的職位信息,然後保存到Mysql資料庫中。
  • Python開發簡單爬蟲【學習資料總結】
    ;另一方面,會將新的URL補充進URL管理器,若有URL管理器中含有新的URL,則重複上述步驟,直到爬取完所有的URL 6、最後,調度器會調動應用的方法,將價值數據輸出到需要的格式。
  • PythonPython100個練手項目|github|瀏覽器|爬蟲|python|斷點_網易...
    天貓商品數據爬蟲    3. 爬取淘寶我已購買的寶貝數據    4. 每天不同時間段通過微信發消息提醒女友    5. 爬取5K解析度超清唯美壁紙    6. 爬取豆瓣排行榜電影數據(含GUI界面版)    7.
  • python爬蟲入門實戰!爬取博客文章標題和連結!
    最近有小夥伴和我留言想學python爬蟲,那麼就搞起來吧。準備階段爬蟲有什麼用呢?舉個最簡單的小例子,你需要《戰狼2》的所有豆瓣影評。最先想的做法可能是打開瀏覽器,進入該網站,找到評論,一個一個複製到文本中,保存,翻頁,接著複製,直到翻到最後一頁。而爬蟲只要寫腳本,執行,泡杯咖啡,坐等他執行完。
  • python爬蟲senlenium爬取拉勾網招聘數據
    目標url:https://www.lagou.com/用selenium爬蟲實現,輸入任意關鍵字,比如 python 數據分析,點擊搜索,得到的有關崗位信息,爬取下來保存到Excel# 模擬點擊下一頁 翻頁爬取數據 每爬取一頁數據 休眠 控制抓取速度 防止被反爬 讓輸驗證碼 for i in range(29): browser.find_element_by_class_name('pager_next ').click() time.sleep(1) browser.execute_script
  • 手把手教你python爬數據
    Python發展接近三十年,確實已經成為了程式語言中的「網紅」,因為python這個技能能夠讓你在就業市場拿到很不錯的offer。而且現在你觀察一下懂爬蟲、學習爬蟲的人也是越來越多了。培訓誠築說小編今天詳細地給大家分享一些有關的內容,拿出小本本趕快記下來吧~python爬蟲的步驟大致包括:發送請求—獲取網頁—解析網頁(提取數據)—存儲數據。
  • Python爬蟲「學前班」!別踩坑了!輕鬆爬取大規模數據
    前言爬蟲應用的廣泛,例如搜尋引擎、採集數據、廣告過濾、數據分析等。當我們對少數網站內容進行爬取時寫多個爬蟲還是有可能的,但是對於需要爬取多個網站內容的項目來說是不可能編寫多個爬蟲的,這個時候我們就需要智能爬蟲。
  • Python爬蟲反爬手段講解
    解決辦法:請求頭裡面添加對應的參數(複製瀏覽器裡面的數據)2、根據用戶行為來進行反爬請求頻率過高,伺服器設置規定時間之內的請求閾值 解決辦法:降低請求頻率或者使用代理(IP代理)網頁中設置一些陷阱(正常用戶訪問不到但是爬蟲可以訪問到) 解決辦法:分析網頁,避開這些特殊陷阱請求間隔太短,返回相同的數據解決辦法:增加請求間隔3、js加密
  • python+selenium+pyquery實現數據爬蟲
    目標: 首先我們本次爬蟲的任務是完成某採購網站的信息爬取,省去人工耗費的時間。快速篩選出我們的需要的指定信息。然後將招標信息的標題、連結、和時間找出來,並保存到Excel。
  • Python爬蟲教程 Python爬取股票數據過程詳解
    這篇文章主要介紹了基於Python爬取股票數據過程詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下基本環境配置python 3.6一切的一切都在圖裡找到數據了
  • scrapy 爬蟲對爬取數據進行json格式存儲
    網絡Scrapy 爬蟲對爬取的數據進行存儲,我們之前有對極品笑話大全進行成功爬取下面就是我們爬取的數據展示,一個簡單的爬取數據有了,我們就要進行存儲,我們一般小白都會在spider.py文件中進行存儲,用with open打開文件這個方法,學習scrapy爬蟲這樣是不推薦的,大家還記得我們爬蟲框架每一個
  • 「爬蟲教程」第四章:信息存儲
    前面三章介紹了如何爬取以及篩選信息,而這些信息呢都是輸出到控制臺的。那這一章,我們要學習如何將這些信息持久化存儲,方便我們以後的使用。接下來我們要學習的信息存儲技術有:json 、csv 、mysql 。大家可以根據需要來選擇信息存儲方式。
  • Python爬蟲並自製新聞網站,太好玩了
    來源 | 凹凸數據(ID:alltodata)我們總是在爬啊爬,爬到了數據難道只是為了做一個詞雲嗎?當然不!這次我就利用flask為大家呈現一道小菜。Flask是python中一個輕量級web框架,相對於其他web框架來說簡單,適合小白練手。使用Flask+爬蟲,教大家如何實時展示自己爬下來的數據到網頁上。
  • python爬蟲系列教程,用python爬取全國範圍內的KFC店地址
    每到夜深人靜的時候,小編就開始肚子餓了,這時如果你在不熟悉的城市,想知道附近有沒有KFC店應該怎麼辦呢?下面羽憶教程教你會python爬取全國範圍內的KFC店地址,這是一篇python爬蟲系列的教程,簡單又能讓人填飽肚子。
  • python 爬蟲學習路線:從入門到進階
    那些所有你認為必須的前置知識,都是可以在完成目標的過程中學到的。這裡給你一條平滑的、快速入門的學習路徑。本文依舊需要有一些python基礎,至少要求掌握python語法。前置條件:python開發環境首先,學習python爬蟲,需要會:自己安裝python,python庫以及自己的編輯器。
  • Python爬蟲練習:爬取素材網站數據
    ppt,生活中的新聞、廣告,都離不開大量的素材,而素材網站隨之應運而生先看下效果圖而今天的爬取目標是素材網站www.sccnn.com/基本環境配置pythonpycharmrequestsparsel爬蟲代碼
  • Python爬蟲爬取B站排行榜數據
    寫在前文在這篇博客中,我們將會從頭開始實現完整的python簡單爬蟲項目。爬蟲是一門高深的學問,這裡說的簡單爬蟲是指獲取的數據為靜態網頁數據,選擇B站也是因為作者本身也是老二刺猿了,同時B站沒有嚴格的反爬蟲措施,適合新手的爬蟲練手。