不想python編輯器純英文界面?不用猶豫,換中文!爬蟲怎麼開心怎麼爬

2021-02-24 呔塔

上篇咱們小白從0開始安裝了python以及python編輯器,並且copy學習了作為小白上手的第一個爬蟲程序。

前情回顧


↓↓↓



百分之九十的教程都沒這麼細的爬蟲小白第一課——從安裝python到寫出你的第一個爬蟲程序

在上一篇文章中,筆者由於自己用的python編輯器是PyCharm,於是在安裝編輯器的介紹中用的例子也是PyCharm。然而PyCharm的界面是純英文的,雖然我們只是用這個編輯器的界面copy寫代碼再運行一下即可,並不用知道這些個英文界面菜單的各個中文含義(大多數也用不到),但是也的確存在看著這滿屏的字母打代碼心裡不得勁的情況(筆者期初也是硬著頭皮。。。)

不爽純英文界面怎麼辦?網上還真的有大佬把這個當成嚴肅問題:

「要想提高自己的代碼能力,必須擺脫掉漢化包的依賴,習慣直接在英文界面編程」

話是這麼說沒錯,可咱也沒想提高自己啥代碼能力,就想偶爾安安靜靜爬個蟲,難不成也得硬著頭皮上嗎???

不用。不爽咱就換中文,咱小白爬蟲講究的就是一個灑脫,

怎麼開心怎麼爬。

本文分為兩部分

第1部分講在已經安裝PyCharm的情況下實現PyCharm的高質量漢化。

(還未安裝Pycharm的小夥伴請移步前情回顧)

第2部分則介紹另一款小巧輕便又有中文版的編輯器Geany。

已經說了這麼多,這就開幹吧。

1

實現PyCharm的高質量漢化

眾所周知PyCharm並沒有官方中文版,所以咱是去搜一個漢化包補丁搞上去?漢化包補丁不是有可能會導致功能不全等等等不可預知的風險嗎?

是這樣沒錯。各種第三方漢化包補丁質量良萎不齊,無論是在翻譯上還是在使用上均有可能出現不可預知的錯誤,所以儘量不要使用第三方漢化包

那咋辦嘛???

別慌,PyCharm雖然沒有官方中文版,但它現在已經有JetBrains官方編寫的中文插件了,只是隱藏的比較深

打開PyCharm,File → Settings 進入設置。

進入Settings界面,在①處選擇Plugins(插件),接著②處點擊右上角Marketplace,在搜索框中輸入「Chinese」,第一個圖標是個「漢」字的就是我們要找的官方漢化插件了,③處點擊Install,安裝完成根據提示重啟PyCharm即可。

重啟之後,熟悉的中文界面它出現了!!!

由於是官方出品的漢化插件,無論是準確度還是安全性上都顯然是更可靠的,卸載漢化插件與安裝一樣簡單,只需要再次點擊 文件 → 設置  → 插件 在已安裝插件中點擊 關閉 重啟即可。

以上我們實現了對PyCharm的漢化,中英隨心切換,想用哪種用哪種。

2

更小更輕便且自帶中文版的Geany

Geany作為python編輯器的最大優點就是小巧輕便,B站著名UP主 龍王山小青椒 演示爬蟲時用的軟體用的便是Geany。

UP主 龍王山小青椒 B站教學截圖

(感謝大佬在B站的宣傳,此處插播一條廣告,更深入高級生動的python爬蟲技巧敬請移步B站 搜索 龍王山小青椒 看相關視頻!!!)

相比於PyCharm作為專業的python IDE,Geany除了python外還支持其它多種程式語言。Geany的小巧輕便從安裝包上就可以充分顯現:

軟體名稱
安裝包大小
pycharm-community-2020.2.3296MB
geany-1.37_setup15.8MB

Geany安裝包的大小几乎是pycharm的近二十分之一,當然,與此同時Geany的功能也少了很多,但如果只是爬個蟲,綽綽有餘。

Geany安裝也是從官網下載安裝包,官網地址:

https://www.geany.org/

進入Download頁面下載,直接下載Windows版本即可,不分32位64位,不分軟體包類型,簡單粗暴,光下載操作就能感受到Geany的「小巧輕便」(和PyCharm比起)

下載完安裝包,打開,除了中途可以自定義安裝路徑,其它直接全部默認保持不變,一直跟步驟走即可,還是那句話,小巧輕便

由於安裝過程中不需要另外操作,安裝過程截圖這裡就不放上去了,安裝完畢直接進入Geany,嗯,界面也是如此,小巧輕便

這裡我們新建一個文件,命名為Geanytest.py 注意,這裡的後綴名 .py需要自己填寫

如果電腦是按照上篇所述流程安裝的python,這裡就不用再對Geany進行另外的配置,保險起見,我們先Hello world測試一下:

點擊執行,如果運行結果如下圖,則說明一切OK。

如果不能成功運行,則需要手動進行設置,具體需要設置的地方在 設置生成命令 中,這裡就不展開說明了。

測試無誤,我們把上一篇的第一個爬蟲代碼copy過來,運行試一下行不行。

(※ 關注呔塔公眾號 後臺發送 「第一課」 獲取代碼文件。)

點擊執行,居然???

這裡提示SyntaxError,不要慌,解決它我們只需要在代碼首行加上:

再次執行,SyntaxError沒了,但是——

這個報錯我們好像在哪見過???沒錯,就是上篇用PyCharm運行代碼時遇到的問題,還沒有安裝requests包。在上篇文章中,我們的解決方法是直接滑鼠移到報錯就能安裝缺少的對應包,然而對於小巧輕便的Geany來說並沒有這個功能,這裡我們就需要pip安裝對應包了。

windows鍵+r 輸入cmd 回車 打開控制臺 輸入代碼:

這裡由於筆者已經安裝過了,界面提示已安裝,第一次安裝則會顯示下載安裝的過程,靜等安裝完成就行。

如果在運行時遇到如上圖底部的黃色WARNING,這是指pip版本可以更新,可以順便更新一下:

python -m pip install -U pip

運行顯示如下圖,pip成功更新。

pip更新是題外話,回到主題,pip方法安裝好requests回到Geany,執行爬蟲代碼:

好了,成功運行爬蟲程序。

3

小結

到此,本文介紹了將PyCharm漢化以及另一款小巧輕便的python編輯器Geany的安裝與使用方法,還是那句話,爬蟲就是怎麼開心怎麼爬。爬蟲的準備工作與編輯器安裝到此介紹完畢,下面就要正式開始掉光頭髮激動人心的小白爬蟲生涯啦。

戳文末二維碼,關注呔塔公眾號,一起從零起步寫爬蟲。

↓↓↓

相關焦點

  • Python網絡爬蟲
    而網絡爬蟲技術,則是大數據分析領域的第一個環節。(二):能從網絡上爬取什麼數據?所有在網頁能見到的數據都可以通爬蟲程序保存下來。(三):python爬蟲的流程獲取網頁——解析網頁(提取數據)——存儲數據1:獲取網頁:給一個網址發送請求,該網址會返回整個網頁的數據。
  • 聊聊學python轉行、具體學習方法、自學python用於辦公、寫爬蟲等...
    Python這幾年都挺火的,比如說應用於數據分析、機器學習、自動化辦公、寫爬蟲採集數據等等……因為我之前發過幾篇和python有關的推文,所以不止一個朋友加私信問我說,你是怎麼學的,能不能談一談學習的經驗和技巧。
  • PythonPython100個練手項目
    天貓商品數據爬蟲    3. 爬取淘寶我已購買的寶貝數據    4. 每天不同時間段通過微信發消息提醒女友    5. 爬取5K解析度超清唯美壁紙    6. 爬取豆瓣排行榜電影數據(含GUI界面版)    7.
  • python爬蟲之selenium抓取淘寶商品信息
    簡介本節採用python爬蟲相關技術獲取淘寶商品信息。採用的技術有selenium、pyquery及urllib.parse等。selenium可以模擬用戶執行的操作,是一個自動化測試工具,我們可以根據自己的需要預先設置selenium按照我們設置好的步驟進行操作,而在爬蟲中我們使用selenium可以解決javascript動態執行代碼的問題,不用費心去解析js如何運行,運行後產生的信息,直接使用selenium模擬實際登陸網頁的操作,獲取我們需要的信息進行分析,成功幫我們避開一系列複雜的通信過程,方便使用者。
  • 推薦一個簡易又強大的神級python編輯器:sublime text3
    然而,不同的用戶有不同的操作習慣與喜好,當然也會選擇不同的編輯器。      受大眾喜愛的python編輯器主要有這幾款:pycharm、atom、sublime-text、spyder、python自帶的IDLE等,當然有些大神會用純文本編輯器。那你使用過哪款編輯器呢?先投個票唄!
  • 實戰|手把手教你用Python爬蟲(附詳細源碼)
    我們再來看下爬蟲應該遵循的規則:robots協議是一種存放於網站根目錄下的ASCII編碼的文本文件,它通常告訴網絡搜尋引擎的漫遊器(又稱網絡蜘蛛),此網站中的哪些內容是不應被搜尋引擎的漫遊器獲取的,哪些是可以被漫遊器獲取的。一句話概括就是告訴你哪些東西能爬哪些不能爬。了解了定義和規則,最後就是熟悉爬蟲的基本原理了,很簡單,作為一名靈魂畫手,我畫個示意圖給你看下就明白了。
  • visual studio 2015怎麼把英文界面變成中文?
    visual studio 2015怎麼把英文界面變成中文界面?最新的vs2015,剛下載下來時是全英文界面,如何將它改成中文界面呢。下面介紹一下詳細的教程,需要的朋友可以參考下最新的vs2015,剛下載下來時是全英文界面,如何將它改成中文界面呢。
  • Python基礎進階之海量表情包多線程爬蟲功能的實現
    今天老師帶領大家使用python中的爬蟲去一鍵下載海量表情包資源二、知識點requests網絡庫bs4選擇器文件操作多線程三、所用到得庫# 隊列from queue import Queuefrom threading import Thread五、環境配置解釋器 python3.6
  • Python環境搭建和sublime text 3配置(新手向)
    由於工作原因,自己給同事寫過很多處理Excel、爬蟲的代碼,也裝過很多次Python(用pyinstaller打包成exe有時候太大了),而且剛巧有位朋友最近要學,所以還是決定寫一篇以供初學者參考Python環境搭建直接安裝Anaconda就行了Anaconda是什麼?
  • 小白學 Python 爬蟲(11):urllib 基礎使用(一)
    (1):開篇小白學 Python 爬蟲(2):前置準備(一)基本類庫的安裝小白學 Python 爬蟲(3):前置準備(二)Linux基礎入門小白學 Python 爬蟲(4):前置準備(三)Docker基礎入門小白學 Python 爬蟲(5):前置準備(四)資料庫基礎小白學 Python 爬蟲(6):前置準備(五)爬蟲框架的安裝
  • 8個Python爬蟲框架,你用過幾個?
    8個Python爬蟲框架,你用過幾個? Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架。 可以應用在包括數據挖掘,信息處理或存儲歷史數據等一系列的程序中。。用這個框架可以輕鬆爬下來如亞馬遜商品信息之類的數據。
  • Python的爬蟲基礎知識及安裝
    環境 首先下載安裝軟體下載Python地址(下載速度較慢):https://www.python.org/downloads/後臺回復」Python軟體」 即可下載Python 3.8.2軟體對於新手來講,我們再下載一個集成塊開發環境,即寫py代碼的編輯器
  • python爬蟲之selenium-介紹和安裝
    python爬蟲之selenium-介紹和安裝前言相信大家對web自動化selenium都不陌生,是一個web自動化框架,我在第一家公司的時候,
  • 新手寫Python程序有什麼推薦好用編輯器
    安裝完成python,需要一個稱手的編輯器。俗話說:工欲善其事,必先利其器。那到底新手寫Python程序有什麼推薦好用編輯器,網上一大堆編輯器不可能每一個都試一下。現在給點我自己學習python過程中選擇編輯器一些個人看法。
  • fast stone中文安裝怎麼設置英文換中文?
    Fast stone是一款十分方便的辦公軟體,但是界面全是英文又造成了一些不方便,那麼有沒有fast stone 的中文版呢?Fast stone中文安裝怎麼設置英文轉中文?接下來一起來跟著小編一起來看一下吧。
  • Python開發之編輯器匯總
    ,但是都哪些編輯器比較好用呢?在本文將匯總四種最好用的編輯器,跟隨小編一起來看看都有哪四種吧。正文1、Sublime Text這是一個輕量級的代碼編輯器,跨平臺,支持幾十種程式語言,包括Python,Java,C/C++等,小巧靈活,運行輕快,支持代碼高亮、自動補全、語法提示,插件擴展豐富,是一個很不錯的代碼編輯器,配置相關文件後,可直接運行python程序:2、VS Code這是微軟開發的一個跨平臺的代碼編輯器,支持常見的程式語言開發,插件拓展豐富,不僅智能補全
  • 簡單講解價值1K的Python爬蟲外包案例
    對於這個外包給予的網站信息,那麼我們就爬取選擇第一個吧獵聘網>,也就簡單實現,並不會進行打包處理,以及輸入關鍵字爬取,因為打包以及輸入關鍵詞爬取數據
  • Python網頁爬蟲工具有哪些?
    不管文本處理,機器學習和數據發掘,都需求數據,除了通過一些途徑購買或者下載的專業數據外,常常需求我們自己著手爬數據,爬蟲就顯得分外重要。那麼,Python網頁爬蟲東西有哪些呢?1、ScrapyScrapy相Scrapy, a fast high-level screen scraping and web crawling framework for Python.信不少同學都有耳聞,課程圖譜中的許多課程都是依託Scrapy抓去的,這方面的介紹文章有許多,引薦大牛pluskid早年的一篇文章:《Scrapy 輕鬆定製網絡爬蟲》,歷久彌新。
  • 小白學 Python 爬蟲(21):解析庫 Beautiful Soup(上)
    爬蟲(3):前置準備(二)Linux基礎入門小白學 Python 爬蟲(4):前置準備(三)Docker基礎入門小白學 Python 爬蟲(5):前置準備(四)資料庫基礎小白學 Python 爬蟲(6):前置準備(五)爬蟲框架的安裝小白學 Python 爬蟲(7):HTTP 基礎小白學 Python 爬蟲(8):網頁基礎
  • 如何快速學會Python爬蟲(入門篇)
    一、爬蟲入門Python爬蟲入門一之綜述2. Python爬蟲入門二之爬蟲基礎了解3. Python爬蟲入門三之Urllib庫的基本使用4. Python爬蟲入門四之Urllib庫的高級用法5. Python爬蟲入門五之URLError異常處理6.