加速數據分析,這12種高效Numpy和Pandas函數為你保駕護航

2020-12-15 機器之心Pro

選自TowardsDataScience

作者:Kunal Dhariwal

機器之心編譯

參與:Jamin、杜偉、張倩

我們都知道,Numpy 是 Python 環境下的擴展程序庫,支持大量的維度數組和矩陣運算;Pandas 也是 Python 環境下的數據操作和分析軟體包,以及強大的數據分析庫。二者在日常的數據分析中都發揮著重要作用,如果沒有 Numpy 和 Pandas 的支持,數據分析將變得異常困難。但有時我們需要加快數據分析的速度,有什麼辦法可以幫助到我們嗎?

在本文中,數據和分析工程師 Kunal Dhariwal 為我們介紹了 12 種 Numpy 和 Pandas 函數,這些高效的函數會令數據分析更為容易、便捷。最後,讀者也可以在 GitHub 項目中找到本文所用代碼的 Jupyter Notebook.

項目地址:https://github.com/kunaldhariwal/12-Amazing-Pandas-NumPy-Functions

Numpy 的 6 種高效函數

首先從 Numpy 開始。Numpy 是用於科學計算的 Python 語言擴展包,通常包含強大的 N 維數組對象、複雜函數、用於整合 C/C++和 Fortran 代碼的工具以及有用的線性代數、傅立葉變換和隨機數生成能力。

除了上面這些明顯的用途,Numpy 還可以用作通用數據的高效多維容器(container),定義任何數據類型。這使得 Numpy 能夠實現自身與各種資料庫的無縫、快速集成。

接下來一一解析 6 種 Numpy 函數。

argpartition()

藉助於 argpartition(),Numpy 可以找出 N 個最大數值的索引,也會將找到的這些索引輸出。然後我們根據需要對數值進行排序。

x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6, 0])index_val = np.argpartition(x, -4)[-4:]index_valarray([1, 8, 2, 0], dtype=int64)np.sort(x[index_val])array([10, 12, 12, 16])

allclose()

allclose() 用於匹配兩個數組,並得到布爾值表示的輸出。如果在一個公差範圍內(within a tolerance)兩個數組不等同,則 allclose() 返回 False。該函數對於檢查兩個數組是否相似非常有用。

array1 = np.array([0.12,0.17,0.24,0.29])array2 = np.array([0.13,0.19,0.26,0.31])# with a tolerance of 0.1, it should return False:np.allclose(array1,array2,0.1)False# with a tolerance of 0.2, it should return True:np.allclose(array1,array2,0.2)True

clip()

Clip() 使得一個數組中的數值保持在一個區間內。有時,我們需要保證數值在上下限範圍內。為此,我們可以藉助 Numpy 的 clip() 函數實現該目的。給定一個區間,則區間外的數值被剪切至區間上下限(interval edge)。

x = np.array([3, 17, 14, 23, 2, 2, 6, 8, 1, 2, 16, 0])np.clip(x,2,5)array([3, 5, 5, 5, 2, 2, 5, 5, 2, 2, 5, 2])

extract()

顧名思義,extract() 是在特定條件下從一個數組中提取特定元素。藉助於 extract(),我們還可以使用 and 和 or 等條件。

# Random integersarray = np.random.randint(20, size=12)arrayarray([ 0, 1, 8, 19, 16, 18, 10, 11, 2, 13, 14, 3])# Divide by 2 and check if remainder is 1cond = np.mod(array, 2)==1condarray([False, True, False, True, False, False, False, True, False, True, False, True])# Use extract to get the valuesnp.extract(cond, array)array([ 1, 19, 11, 13, 3])# Apply condition on extract directlynp.extract(((array < 3) | (array > 15)), array)array([ 0, 1, 19, 16, 18, 2])

where()

Where() 用於從一個數組中返回滿足特定條件的元素。比如,它會返回滿足特定條件的數值的索引位置。Where() 與 SQL 中使用的 where condition 類似,如以下示例所示:

y = np.array([1,5,6,8,1,7,3,6,9])# Where y is greater than 5, returns index positionnp.where(y>5)array([2, 3, 5, 7, 8], dtype=int64),)# First will replace the values that match the condition, # second will replace the values that does notnp.where(y>5, "Hit", "Miss")array(['Miss', 'Miss', 'Hit', 'Hit', 'Miss', 'Hit', 'Miss', 'Hit', 'Hit'],dtype='<U4')

percentile()

Percentile() 用於計算特定軸方向上數組元素的第 n 個百分位數。

a = np.array([1,5,6,8,1,7,3,6,9])print("50th Percentile of a, axis = 0 : ", np.percentile(a, 50, axis =0))50th Percentile of a, axis = 0 : 6.0b = np.array([[10, 7, 4], [3, 2, 1]])print("30th Percentile of b, axis = 0 : ", np.percentile(b, 30, axis =0))30th Percentile of b, axis = 0 : [5.1 3.5 1.9]

這就是 Numpy 擴展包的 6 種高效函數,相信會為你帶來幫助。接下來看一看 Pandas 數據分析庫的 6 種函數。

Pandas 數據統計包的 6 種高效函數

Pandas 也是一個 Python 包,它提供了快速、靈活以及具有顯著表達能力的數據結構,旨在使處理結構化 (表格化、多維、異構) 和時間序列數據變得既簡單又直觀。

Pandas 適用於以下各類數據:

具有異構類型列的表格數據,如 SQL 表或 Excel 表;有序和無序 (不一定是固定頻率) 的時間序列數據;帶有行/列標籤的任意矩陣數據(同構類型或者是異構類型);其他任意形式的統計數據集。事實上,數據根本不需要標記就可以放入 Pandas 結構中。Pandas 擅長處理的類型如下所示:

容易處理浮點數據和非浮點數據中的 缺失數據(用 NaN 表示);大小可調整性: 可以從 DataFrame 或者更高維度的對象中插入或者是刪除列;顯式數據可自動對齊: 對象可以顯式地對齊至一組標籤內,或者用戶可以簡單地選擇忽略標籤,使 Series、 DataFrame 等自動對齊數據;靈活的分組功能,對數據集執行拆分-應用-合併等操作,對數據進行聚合和轉換;簡化將數據轉換為 DataFrame 對象的過程,而這些數據基本是 Python 和 NumPy 數據結構中不規則、不同索引的數據;基於標籤的智能切片、索引以及面向大型數據集的子設定;更加直觀地合併以及連接數據集;更加靈活地重塑、轉置(pivot)數據集;軸的分級標記 (可能包含多個標記);具有魯棒性的 IO 工具,用於從平面文件 (CSV 和 delimited)、 Excel 文件、資料庫中加在數據,以及從 HDF5 格式中保存 / 加載數據;時間序列的特定功能: 數據範圍的生成以及頻率轉換、移動窗口統計、數據移動和滯後等。read_csv(nrows=n)

大多數人都會犯的一個錯誤是,在不需要.csv 文件的情況下仍會完整地讀取它。如果一個未知的.csv 文件有 10GB,那麼讀取整個.csv 文件將會非常不明智,不僅要佔用大量內存,還會花很多時間。我們需要做的只是從.csv 文件中導入幾行,之後根據需要繼續導入。

import ioimport requests# I am using this online data set just to make things easier for you guysurl = "https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv"s = requests.get(url).content# read only first 10 rowsdf = pd.read_csv(io.StringIO(s.decode('utf-8')),nrows=10 , index_col=0)

map()

map( ) 函數根據相應的輸入來映射 Series 的值。用於將一個 Series 中的每個值替換為另一個值,該值可能來自一個函數、也可能來自於一個 dict 或 Series。

# create a dataframedframe = pd.DataFrame(np.random.randn(4, 3), columns=list('bde'), index=['India', 'USA', 'China', 'Russia'])#compute a formatted string from each floating point value in framechangefn = lambda x: '%.2f' % x# Make changes element-wisedframe['d'].map(changefn)

apply()

apply() 允許用戶傳遞函數,並將其應用於 Pandas 序列中的每個值。

# max minus mix lambda fnfn = lambda x: x.max() - x.min()# Apply this on dframe that we've just created abovedframe.apply(fn)

isin()

lsin () 用於過濾數據幀。Isin () 有助於選擇特定列中具有特定(或多個)值的行。

# Using the dataframe we created for read_csvfilter1 = df["value"].isin([112]) filter2 = df["time"].isin([1949.000000])df [filter1 & filter2]

copy()

Copy () 函數用於複製 Pandas 對象。當一個數據幀分配給另一個數據幀時,如果對其中一個數據幀進行更改,另一個數據幀的值也將發生更改。為了防止這類問題,可以使用 copy () 函數。

# creating sample series data = pd.Series(['India', 'Pakistan', 'China', 'Mongolia'])# Assigning issue that we facedata1= data# Change a valuedata1[0]='USA'# Also changes value in old dataframedata# To prevent that, we use# creating copy of series new = data.copy()# assigning new values new[1]='Changed value'# printing data print(new) print(data)

select_dtypes()

select_dtypes() 的作用是,基於 dtypes 的列返回數據幀列的一個子集。這個函數的參數可設置為包含所有擁有特定數據類型的列,亦或者設置為排除具有特定數據類型的列。

# We'll use the same dataframe that we used for read_csvframex = df.select_dtypes(include="float64")# Returns only time column

最後,pivot_table( ) 也是 Pandas 中一個非常有用的函數。如果對 pivot_table( ) 在 excel 中的使用有所了解,那麼就非常容易上手了。

# Create a sample dataframeschool = pd.DataFrame({'A': ['Jay', 'Usher', 'Nicky', 'Romero', 'Will'], 'B': ['Masters', 'Graduate', 'Graduate', 'Masters', 'Graduate'], 'C': [26, 22, 20, 23, 24]})# Lets create a pivot table to segregate students based on age and coursetable = pd.pivot_table(school, values ='A', index =['B', 'C'], columns =['B'], aggfunc = np.sum, fill_value="Not Available") table

原文連結:https://towardsdatascience.com/12-amazing-pandas-numpy-functions-22e5671a45b8

相關焦點

  • 數據分析太麻煩?12個Pandas和NumPy函數助你一臂之力!
    全文共5431字,預計學習時長16分鐘大家都知道Pandas和NumPy函數很棒,它們在日常分析中起著重要的作用。沒有這兩個函數,人們將在這個龐大的數據分析和科學世界中迷失方向。今天,小芯將分享12個很棒的Pandas和NumPy函數,這些函數將會讓生活更便捷,讓分析事半功倍。在本文結尾,讀者可以找到文中提到的代碼的JupyterNotebook。
  • Pandas的介紹與基本使用
    1、什麼是Pandas當大家談論到數據分析時,提及最多的語言就是Python和SQL,而Python之所以適合做數據分析,就是因為他有很多強大的第三方庫來協助,pandas就是其中之一,它是基於Numpy構建的,正因pandas的出現,讓Python語言也成為使用最廣泛而且強大的數據分析環境之一。
  • Python數據分析|線性回歸
    壹 數據導入Python下載及環境配置這裡就不贅述了哈,網上教程非常多,我們直接一開始就進入乾貨,打它一個開門見山。①導入Python常用數據分析庫:常用的numpy、pandas、matplotlib先導入。
  • 這7個免費的Python項目,幫助新手學透Python基本功
    這7個免費的Python項目,幫助新手學透Python基本功 Python是一種跨平臺的電腦程式設計語言。 它結合了解釋性、編譯性、互動性和面向對象的腳本語言。最初被設計用於編寫自動化腳本(shell),但隨著版本的不斷更新和語言新功能的添加,越多被用於獨立的、大型項目的開發。
  • 一鍵獲取新技能,玩轉NumPy數據操作
    大數據文摘出品編譯:李雷、寧靜NumPy是Python中用於數據分析、機器學習、科學計算的重要軟體包。它極大地簡化了向量和矩陣的操作及處理。python的不少數據處理軟體包依賴於NumPy作為其基礎架構的核心部分(例如scikit-learn、SciPy、pandas和tensorflow)。
  • 超全的pandas數據分析常用函數總結(下篇)
    上篇文章中,小編給大家總結了數據分析中pandas這一模塊裡面常用函數的四個部分的內容,分別為導入模塊、創建數據集並讀取、數據查看與數據清洗,現在給大家介紹下篇的內容。來源 | 凹凸數據5.>第二種修改方式:data.set_index('id').join(data2.set_index('id'))輸出結果:用concat合併pandas.concat
  • 圖解NumPy:常用函數的內在機制
    NumPy 是一個基礎軟體庫,很多常用的 Python 數據處理軟體庫都使用了它或受到了它的啟發,包括 pandas、PyTorch、TensorFlow、Keras 等。理解 NumPy 的工作機制能夠幫助你提升在這些軟體庫方面的技能。而且在 GPU 上使用 NumPy 時,無需修改或僅需少量修改代碼。NumPy 的核心概念是 n 維數組。
  • 不容錯過的Pandas小技巧:萬能轉格式、輕鬆合併、壓縮數據,讓數據...
    現在,數據科學家 Roman Orac 分享了他在工作中相見恨晚的 Pandas 使用技巧。了解了這些技巧,能讓你在學習、使用 Pandas 的時候更加高效。話不多說,一起學習一下~Pandas實用技巧用 Pandas 做數據分析,最大的亮點當屬 DataFrame。不過,在展示成果的時候,常常需要把 DataFrame 轉成另一種格式。Pandas 在這一點上其實十分友好,只需添加一行代碼。
  • 第5章 精通pandas合併操作(使用pandas進行數據分析,)
    2. join函數第5章 合併import numpy as npimport pandas as pd可以一次添加多個列:df_append.assign(col1=lambda x:x['Gender']*2,col2=s)二、combine與update1. comine方法comine和update
  • 邊看圖,變學習,NumPy可視化初學教程
    數據科學三分天下,Python佔其一。Python數據科學 NumPy是基礎,不管pandas還是tensorflow, NumPy都是基礎庫,學習NumPy基礎類型和操作必不可少。本文我們就介紹NumPy基礎,並以圖形方式展現,以方便初學者理解。概述NumPy中最基本數據類型是數組,所有數據組織都是n維數組形式組織的。
  • Numpy學習打卡task02
    對隨機性的各種應用導致了幾種不同的隨機數據生成方法的發展,其中有些方法自古以來就存在,在其行列中,有眾所周知的 "經典 "例子,包括擲骰子、擲硬幣、撲克牌的洗牌、《易經》中木籤的使用(用於佔卜),以及其他無數的技術。由於這些技術的機械性質,產生大量足夠隨機的數字(在統計學中很重要)需要大量的工作和時間。因此,結果有時會被收集起來,並以隨機數表的形式分發。
  • 自動生成pandas代碼,python數據處理神器
    熟悉我的同學都知道,我的大部分教程最終都希望教會你怎麼節省代碼。今天我要說的不是怎麼寫代碼,而是介紹一款我親手打造的小工具,它作為探索數據的工具,你不僅不需要寫任何的代碼,它最終還會自動生成pandas代碼。
  • Python視頻教程網課編程零基礎入門數據分析網絡爬蟲全套Python...
    變量的計算和輸入輸出 08 變量的命名 09 if判斷語句 10 石頭剪刀布 11 while循環基本使用 12循環嵌套 13 函數的基本使用 14 函數的參數和返回值 15函數的嵌套調用 16模塊的簡介 17列表 18元祖 19字典
  • 一文包會,教你如何熟練運用Python數值計算Numpy包
    對於用Python的朋友來說,在平常的數值計算中肯定會用到一個開源包,沒錯,它就是大名鼎鼎的Numpy包,全稱為Numberical Python,是Python的一種開源的數值計算擴展,Numpy包內部集成了大量的數學函數庫,你都可以隨手拿來使用,極為方便!
  • 數據分析入門,EXCEL的這幾個函數你必須知道
    大家整理了,數據分析入門常用的EXCEL在數據分析行業,EXCEL是最基礎的、入門級的,也是最常用,最容易上手的工具了。想要學習數據分析的小夥伴可以選擇先從EXCEL入手,下面小編就給函數,希望對各位小夥伴有所幫助。
  • 陝汽貼心服務,為賺錢利器德龍X5000保駕護航
    陝汽貼心服務,為賺錢利器德龍X5000保駕護航 一輛輛陝汽重卡X5000在烈陽下飛馳而過,它們就像一臺行走的空調房間一樣,把暴曬和燥熱都阻隔在車外,給司機師傅們創造了一個涼爽而舒適的行車環境。
  • 帶你了解數據分析的日常工作
    我是Jacky: 本人現在做數據分析相關的工作有半年多了,今天聊聊這一路走過來的心得體會,以及日常的工作 比如工作中的臨時取數據需求,就需要你能夠使用SQL分析出業務需要的數據,然後導出到Excel裡。 (2)Python是加分項 我目前的工作沒有Python也是無法完成的。比如說要做一個相關業務的報表需求,就需要寫Python實現自動化處理。
  • 數據科學中100個Numpy代碼技巧
    NumPy是Python語言的擴展庫,支持許多高維數組和矩陣的操作。此外,它還為數組操作提供了許多數學函數庫。機器學習涉及到對數組的大量轉換和操作,這使得NumPy成為必不可少的工具之一。下面的100個練習都是從numpy郵件列表、stack overflow和numpy文檔中收集的。
  • 十分鐘學習pandas!pandas常用操作總結!
    學習Python, 當然少不了pandas,pandas是python數據科學中的必備工具,熟練使用pandas是從sql boy/girl 跨越到一名優秀的數據分析師傅的必備技能。這篇pandas常用操作總結幫大家回顧下pandas的常用語法,尤其是我們分析數據時常用的方法。