Pandas數據處理120題,你在第幾層?

2021-02-14 天池大數據科研平臺
作者|劉早起

Pandas進階修煉120題系列一共涵蓋了數據處理、計算、可視化等常用操作,希望通過120道精心挑選的習題吃透pandas。並且針對部分習題給出了多種解法與註解,動手敲一遍代碼一定會讓你有所收穫!

data = {"grammer":["Python","C","Java","GO",np.nan,"SQL","PHP","Python"],
       "score":[1,2,np.nan,4,5,6,7,10]}

import numpy as np
import pandas as pd
df = pd.DataFrame(data)

# 假如是直接創建
df = pd.DataFrame({
    "grammer": ["Python","C","Java","GO",np.nan,"SQL","PHP","Python"],
    "score": [1,2,np.nan,4,5,6,7,10]})

grammer  score
0 Python    1.0
7 Python   10.0

#> 1
df[df['grammer'] == 'Python']
#> 2
results = df['grammer'].str.contains("Python")
results.fillna(value=False,inplace = True)
df[results]



Index(['grammer', 'score'], dtype='object')


df.rename(columns={'score':'popularity'}, inplace = True)



題目:統計grammer列中每種程式語言出現的次數

df['grammer'].value_counts()



# pandas裡有一個插值方法,就是計算缺失值上下兩數的均值
df['popularity'] = df['popularity'].fillna(df['popularity'].interpolate())



df.drop_duplicates(['grammer'])


df['popularity'].mean()
# 4.75


df['grammer'].to_list()
# ['Python', 'C', 'Java', 'GO', nan, 'SQL', 'PHP', 'Python']


df.to_excel('filename.xlsx')




題目:提取popularity列值大於3小於7的行

df[(df['popularity'] > 3) & (df['popularity'] < 7)]


temp = df['popularity']
df.drop(labels=['popularity'], axis=1,inplace = True)
df.insert(0, 'popularity', temp)


df[df['popularity'] == df['popularity'].max()]



df = df.drop(labels=df.shape[0]-1)


row = {'grammer':'Perl','popularity':6.6}
df = df.append(row,ignore_index=True)


題目:對數據按照"popularity"列值的大小進行排序

df.sort_values("popularity",inplace=True)


df['grammer'] = df['grammer'].fillna('R')
df['len_str'] = df['grammer'].map(lambda x: len(x))


import pandas as pd
import numpy as np
df = pd.read_excel(r'C:\Users\chenx\Documents\Data Analysis\pandas120.xlsx')



題目:將salary列數據轉換為最大值與最小值的平均值

# 方法一:apply + 自定義函數
def func(df):
    lst = df['salary'].split('-')
    smin = int(lst[0].strip('k'))
    smax = int(lst[1].strip('k'))
    df['salary'] = int((smin + smax) / 2 * 1000)
    return df

df = df.apply(func,axis=1)
# 方法二:iterrows + 正則
import re
for index,row in df.iterrows():
    nums = re.findall('\d+',row[2])
    df.iloc[index,2] = int(eval(f'({nums[0]} + {nums[1]}) / 2 * 1000'))


education salary            
不限 19600.000000
大專 10000.000000
本科 19361.344538
碩士 20642.857143

df.groupby('education').mean()


for index,row in df.iterrows():
   df.iloc[index,0] = df.iloc[index,0].to_pydatetime().strftime("%m-%d")


<class 'pandas.core.frame.DataFrame'>
RangeIndex: 135 entries, 0 to 134
Data columns (total 4 columns):
createTime 135 non-null object
education 135 non-null object
salary 135 non-null int64
categories 135 non-null category
dtypes: category(1), int64(1), object(2)
memory usage: 3.5+ KB



bins = [0,5000, 20000, 50000]
group_names = ['低', '中', '高']
df['categories'] = pd.cut(df['salary'], bins, labels=group_names)


df.sort_values('salary', ascending=False)



np.median(df['salary'])
# 17500.0


# Jupyter運行matplotlib成像需要運行魔術命令
%matplotlib inline
plt.rcParams['font.sans-serif'] = ['SimHei'] # 解決中文亂碼
plt.rcParams['axes.unicode_minus'] = False # 解決符號問題
import matplotlib.pyplot as plt
plt.hist(df.salary)

# 也可以用原生pandas方法繪圖
df.salary.plot(kind='hist')


df.salary.plot(kind='kde',xlim = (0,70000))


del df['categories']
# 等價於
df.drop(columns=['categories'], inplace=True)


df['test'] = df['education'] + df['createTime']


題目:將education列與salary列合併為新的一列備註:salary為int類型,操作與35題有所不同

df["test1"] = df["salary"].map(str) + df['education']


df[['salary']].apply(lambda x: x.max() - x.min())
# salary 41500
# dtype: int64


pd.concat([df[1:2], df[-1:]])



createTime object
education object
salary int64
test object
test1 object
dtype: object

df.dtypes
# createTime object
# education object
# salary int64
# test object
# test1 object
# dtype: object


df.set_index("createTime")


題目:生成一個和df長度相同的隨機數dataframe

df1 = pd.DataFrame(pd.Series(np.random.randint(1, 10, 135)))


df= pd.concat([df,df1],axis=1)


題目:生成新的一列new為salary列減去之前生成隨機數列

df["new"] = df["salary"] - df[0]


df.isnull().values.any()
# False


df['salary'].astype(np.float64)


len(df[df['salary'] > 10000])
# 119



本科 119
碩士 7
不限 5
大專 4
Name: education, dtype: int64

df.education.value_counts()


df['education'].nunique()
# 4


題目:提取salary與new列的和大於60000的最後3行

rowsums = df[['salary','new']].apply(np.sum, axis=1)
res = df.iloc[np.where(rowsums > 60000)[0][-3:], :]


import pandas as pd
import numpy as np

df = pd.read_excel(r'C:\Users\chenx\Documents\Data Analysis\Pandas51-80.xls')

備註

請將答案中路徑替換為自己機器存儲數據的絕對路徑,51—80相關習題與該數據有關


代碼 1
簡稱 2
日期 2
前收盤價(元) 2
開盤價(元) 2
最高價(元) 2
最低價(元) 2
收盤價(元) 2
成交量(股) 2
成交金額(元) 2
..



列名:"代碼", 第[327]行位置有缺失值
列名:"簡稱", 第[327, 328]行位置有缺失值
列名:"日期", 第[327, 328]行位置有缺失值
列名:"前收盤價(元)", 第[327, 328]行位置有缺失值
列名:"開盤價(元)", 第[327, 328]行位置有缺失值
列名:"最高價(元)", 第[327, 328]行位置有缺失值
列名:"最低價(元)", 第[327, 328]行位置有缺失值
列名:"收盤價(元)", 第[327, 328]行位置有缺失值
.

for i in df.columns:
    if df[i].count() != len(df):
        row = df[i][df[i].isnull().values].index.tolist()
        print('列名:"{}", 第{}行位置有缺失值'.format(i,row))


df.dropna(axis=0, how='any', inplace=True)

備註

axis:0-行操作(默認),1-列操作
how:any-只要有空值就刪除(默認),all-全部為空值才刪除
inplace:False-返回新的數據集(默認),True-在原數據集上操作


# Jupyter運行matplotlib
%matplotlib inline

df['收盤價(元)'].plot()
# 等價於
import matplotlib.pyplot as plt
plt.plot(df['收盤價(元)'])


plt.rcParams['font.sans-serif'] = ['SimHei'] # 解決中文亂碼
plt.rcParams['axes.unicode_minus'] = False # 解決符號問題

df[['收盤價(元)','開盤價(元)']].plot()


plt.hist(df['漲跌幅(%)'])
# 等價於
df['漲跌幅(%)'].hist()


df['漲跌幅(%)'].hist(bins = 30)

temp = pd.DataFrame(columns = df.columns.to_list())


for index,row in df.iterrows():
    if type(row[13]) != float:
        temp = temp.append(df.loc[index])

備註

通過上一題我們發現換手率的異常值只有--

df = df.reset_index(drop=True)

備註

有時我們修改數據會導致索引混亂


lst = []
for index,row in df.iterrows():
    if type(row[13]) != float:
        lst.append(index)
df.drop(labels=lst,inplace=True)


df['換手率(%)'].plot(kind='kde',xlim=(0,0.6))


data['收盤價(元)'].pct_change()



題目以5個數據作為一個數據滑動窗口,在這個5個數據上取均值(收盤價)

df['收盤價(元)'].rolling(5).mean()

題目:以5個數據作為一個數據滑動窗口,計算這五個數據總和(收盤價)

df['收盤價(元)'].rolling(5).sum()

題目:將收盤價5日均線、20日均線與原始數據繪製在同一個圖上

df['收盤價(元)'].plot()
df['收盤價(元)'].rolling(5).mean().plot()
df['收盤價(元)'].rolling(20).mean().plot()

題目:按周為採樣規則,取一周收盤價最大值

df = df.set_index('日期')
df['收盤價(元)'].resample('W').max()

題目:繪製重採樣數據與原始數據

df['收盤價(元)'].plot()
df['收盤價(元)'].resample('7D').max().plot()

題目:使用expending函數計算開盤價的移動窗口均值

df['開盤價(元)'].expanding(min_periods=1).mean()

df['expanding Open mean']=df['開盤價(元)'].expanding(min_periods=1).mean()
df[['開盤價(元)', 'expanding Open mean']].plot(figsize=(16, 6))

df['former 30 days rolling Close mean']=df['收盤價(元)'].rolling(20).mean()
df['upper bound']=df['former 30 days rolling Close mean']+2*df['收盤價(元)'].rolling(20).std()
df['lower bound']=df['former 30 days rolling Close mean']-2*df['收盤價(元)'].rolling(20).std()

df[['收盤價(元)', 'former 30 days rolling Close mean','upper bound','lower bound' ]].plot(figsize=(16, 6))

import pandas as pd
import numpy as np
print(np.__version__)
# 1.16.5
print(pd.__version__)
# 0.25.1


tem = np.random.randint(1,100,20)
df1 = pd.DataFrame(tem)


tem = np.arange(0,100,5)
df2 = pd.DataFrame(tem)


使用numpy生成20個指定分布(如標準正態分布)的數

tem = np.random.normal(0, 1, 20)
df3 = pd.DataFrame(tem)


題目:將df1,df2,df3按照行合併為新DataFrame

df = pd.concat([df1,df2,df3],axis=0,ignore_index=True)


題目:將df1,df2,df3按照列合併為新DataFrame

0 1 2
0 95 0 0.022492
1 22 5 -1.209494
2 3 10 0.876127
3 21 15 -0.162149
4 51 20 -0.815424
5 30 25 -0.303792

df = pd.concat([df1,df2,df3],axis=1,ignore_index=True)

題目:查看df所有數據的最小值、25%分位數、中位數、75%分位數、最大值

np.percentile(df, q=[0, 25, 50, 75, 100])


df.columns = ['col1','col2','col3']


df['col1'][~df['col1'].isin(df['col2'])]


temp = df['col1'].append(df['col2'])
temp.value_counts()[:3]


np.argwhere(df['col1'] % 5==0)


df['col1'].diff().tolist()



df['col1'].take([1,10,15])
# 等價於
df.iloc[[1,10,15],0]

res = np.diff(np.sign(np.diff(df['col1'])))
np.where(res== -2)[0] + 1
# array([ 2, 4, 7, 9, 12, 15], dtype=int64)


df[['col1','col2','col3']].mean(axis=1)


np.convolve(df['col2'], np.ones(3)/3, mode='valid')

df.sort_values("col3",inplace=True)


df.col1[df['col1'] > 50] = '高'


np.linalg.norm(df['col1']-df['col2'])
# 194.29873905921264


從數據1中的前10行中讀取positionName, salary兩列

df1 = pd.read_csv(r'C:\Users\chenx\Documents\Data Analysis\數據1.csv',encoding='gbk', usecols=['positionName', 'salary'],nrows = 10)


從數據2中讀取數據並在讀取數據時將薪資大於10000的為改為高

df2 = pd.read_csv(r'C:\Users\chenx\Documents\Data Analysis\數據2.csv',
                  converters={'薪資水平': lambda x: '高' if float(x) > 10000 else '低'} )


從上一題數據中,對薪資水平列每隔20行進行一次抽樣

期望結果

df2.iloc[::20, :][['薪資水平']]


df = pd.DataFrame(np.random.random(10)**10, columns=['data'])

期望結果

Python解法

df = pd.DataFrame(np.random.random(10)**10, columns=['data'])
df.round(3)


df.style.format({'data': '{0:.2%}'.format})


df['data'].argsort()[len(df)-3]



df1= pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
'key2': ['K0', 'K1', 'K0', 'K1'],
'A': ['A0', 'A1', 'A2', 'A3'],
'B': ['B0', 'B1', 'B2', 'B3']})

df2= pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
'key2': ['K0', 'K0', 'K0', 'K0'],
'C': ['C0', 'C1', 'C2', 'C3'],
'D': ['D0', 'D1', 'D2', 'D3']})

pd.merge(df1, df2, on=['key1', 'key2'])

備註

只保存df1的數據

pd.merge(df1, df2, how='left', on=['key1', 'key2'])

left_join(df1,df2,by = c('key1','key2'))


df = pd.read_csv(r'C:\Users\chenx\Documents\Data Analysis\數據1.csv',encoding='gbk')
pd.set_option("display.max.columns", None)

題目:查找secondType與thirdType值相等的行號

np.where(df.secondType == df.thirdType)


np.argwhere(df['salary'] > df['salary'].mean())[2]
# array([5], dtype=int64)

df[['salary']].apply(np.sqrt)


題目:將上一題數據的linestaion列按_拆分

df['split'] = df['linestaion'].str.split('_')



題目:提取industryField列以'數據'開頭的行

df[df['industryField'].str.startswith('數據')]


題目:以salary score 和 positionID製作數據透視

pd.pivot_table(df,values=["salary","score"],index="positionId")


df[["salary","score"]].agg([np.sum,np.mean,np.min])


df.agg({"salary":np.sum,"score":np.mean})


df[['district','salary']].groupby(by='district').mean().sort_values(
    'salary',ascending=False).head(1)

以上就是Pandas進階修煉120題全部內容,如果能堅持走到這裡的讀者,我想你已經掌握了處理數據的常用操作,並且在之後的數據分析中碰到相關問題,希望武裝了Pandas的你能夠從容的解決!

習題與源碼電子版:

https://pan.baidu.com/s/1MSqmWMiurHJSXyNBlJOEpw  

密碼:8mkx

免費開放,從 Python入門到Tensorflow基礎與實踐

【天池大賽】3D人工智慧挑戰賽

相關焦點

  • 玩轉數據處理120題|Pandas&R
    和我一起玩Python本文精心挑選在數據處理中常見的120種操作並整理成習題發布。
  • Pandas進階修煉120題|完整版
    題』系列現已完結,我們對Pandas中常用的操作以習題的形式發布。從讀取數據到高級操作全部包含,希望可以通過刷題的方式來完整學習pandas中數據處理的各種方法,當然如果你是高手,也歡迎嘗試給出與答案不同的解法。
  • Python數學建模技巧之pandas數據處理
    Python眾多的第三方庫提供了這種可能。最常見的庫有進行矩陣運算的Numpy、進行數據處理的pandas、進行科學計算的Scipy、進行圖形繪製及科學可視化的matplotlib、進行符號計算的Sympy以及方便進行機器學習任務的Sklearn。由於今年美賽官方公告中稱,將會提前在賽題公布之前就提供下載C題數據集的方式。
  • 120道pandas面試題,點進來,在看,分享,收藏,退出一條龍
    此文來源於:早起python從讀取數據到高級操作全部包含,希望可以通過刷題的方式來完整學習pandas中數據處理的各種方法,當然如果你是高手,也歡迎嘗試給出與答案不同的解法。df.sort_values("popularity",inplace=True)df['grammer'].map(lambda x: len(x))df = pd.read_excel('pandas120
  • 使用Pandas進行數據處理
    引言我們將深入講解pandas庫在數據處理階段的功能數據處理又可以細分為三個階段,我們將通過例子詳細講解各個階段都會涉及哪些操作,以及如何充分利用pandas庫提供的函數來完成這些操作。數據處理的三個階段為:數據準備、數據轉換和數據聚合。數據準備開始處理數據工作之前,需要先行準備好數據,把數據組裝成便於用pandas庫的各種工具處理的數據結構。
  • 數據處理技巧 | 帶你了解Pandas.groupby() 常用數據處理方法
    今天我們繼續推出一篇數據處理常用的操作技能匯總:靈活使用pandas.groupby()函數,實現數據的高效率處理,主要內容如下:pandas.groupby()三大主要操作介紹說到使用Python進行數據處理分析,那就不得不提其優秀的數據分析庫-Pandas,
  • Python學習120課 pandas簡介kaggle下載數據及pandas讀取外部數據
    現在我們開始學習pandas,pandas一般用的更多,pandas是基於numpy去寫的。pandas是一個專門做數據結構和數據分析的庫。●pandas的安裝推薦使用anaconda,只要安裝了anaconda,它裡面就會自帶pandas,這會為我們省去很多的麻煩。接下來就是用pandas去處理數據,數據從哪來呢?
  • 使用Pandas數據處理與分析
    前言:這是關於個人關於對pandas可以進行的數據處理和數據分析的見解的初版,其中肯定不乏一些錯誤之處,希望大家能多多指正。pandas提供了一些用於將表格型數據讀取為DataFrame對象的函數。方便理解數據和為後續處理分析打下基礎。
  • Python數據處理庫pandas入門教程
    pandas提供了快速,靈活和富有表現力的數據結構,目的是使「關係」或「標記」數據的工作既簡單又直觀。它旨在成為在Python中進行實際數據分析的高級構建塊。入門介紹pandas適合於許多不同類型的數據,包括:由於這是一個Python語言的軟體包,因此需要你的機器上首先需要具備Python語言的環境。
  • Pandas對文本數據處理
    在處理數據的時候,對數值型的數據處理還是比較方便的,但是有時候數值型數據出現問題後就會比較頭痛了,因為文本數據的排列組合可是有很多很多的,今天我們就學習一下如何對文本數據進行處理,這樣我們接下來在工作中遇到了這些情況就可以少掉一下頭髮啦。
  • 關於Pandas數據處理你不知道的技巧!
    旗下高端量化雲平臺當我們參加一些比賽時,我們可能要花費大量時間來處理數據。本文將由淺到深,為大家講解關於Pandas在數據清理和處理的一些技巧!,因為它不像Boston房價數據(Kaggle最經典的題目)集那樣處理得很好。
  • 數據科學 | pandas數據導入與導出
    當我們開始著手做一個數據分析項目時,選擇和導入數據集是第一個步驟,而導出數據雖然非必需,但有時候我們也需要保存處理或者分析後的結果,方便下次使用。在pandas中,它已經為我們提供了很多不同格式數據的導入和導出方法,下面這篇文章將具體介紹一些較為常用的方法,包括excel、csv文件以及資料庫的導入導出等。數據導入和導出是pandas中很基礎且重要的一個部分。
  • pandas讀取表格後的常用數據處理操作
    pandas讀取表格後的一些常用數據處理操作。這篇文章其實來源於自己的數據挖掘課程作業,通過完成老師布置的作業,感覺對於使用python中的pandas模塊讀取表格數據進行操作有了更深層的認識,這裡做一個整理總結。
  • 用pandas處理時間格式數據
    本文2023字,預計閱讀需10分鐘;我們在處理時間相關的數據時有很多庫可以用,最常用的還是內置的datetime、time這兩個。
  • Python自動化測試—使用Pandas來高效處理測試數據
    ,讀者可以思考,如果你遇到這題,該如何解答呢?git clone git://github.com/pydata/pandas.gitcd pandaspython setup.py install  案例中的lemon_cases.xlsx文件內容如下所示:import pandas as pd# 讀excel文件# 返回一個DataFrame對象,多維數據結構
  • 「Python替代Excel Vba」系列(三):pandas處理不規範數據
    帶你用pandas玩轉各種數據處理前言本系列前2篇已經稍微展示了 python 在數據處理方面的強大能力,這主要得益於 pandas 包的各種靈活處理方式。但是身經百戰的你肯定會覺得,前2篇例子中的數據太規範了,如果把數據導入到資料庫還是可以方便解決問題的。因此,本文將使用稍微複雜的數據做演示,充分說明 pandas 是如何靈活處理各種數據。
  • pandas | 使用pandas進行數據處理——DataFrame篇
    今天是pandas數據處理專題的第二篇文章,我們一起來聊聊pandas當中最重要的數據結構——DataFrame。並且為我們提供了許多表級別數據處理以及批量數據處理的接口,大大降低了數據處理的難度。雖然DataFrame可以近似看成是Series組合成的dict,但實際上它作為一個單獨的數據結構,也擁有許多自己的api,支持許多花式的操作,是我們處理數據強有力的工具。
  • Python數據分析利器,Pandas入門介紹,幫你便捷高效處理複雜數據
    關於Python的數據分析,當我們遇到的數據量小、數據結構簡單時,可以通過字典、列表等Python常見的數據結構來處理。但是當我們面對的大量數據以及複雜數據的局面時,就需要用一些專門用於數據分析的擴展庫來處理數據了。今天給大家介紹一個Python裡專門用來做數據分析和處理的擴展庫。
  • pandas+PyQt5輕鬆製作數據處理工具
    作者:才哥由於在工作中需要處理很多日誌文件數據,這些數據並不存在於資料庫,而是以每日1個單文件的形式存在,為了讓我們在日常數據處理中更方便的進行一些基礎的數據合併、清洗篩選以及簡單的分組或數據透視處理,結合PyQt5與pandas庫,製作了一個簡單的數據處理可視化工具。
  • Python數據分析:pandas讀取和寫入數據
    pandas讀取這些數據文件的方法如表格所示:01讀取寫入文本文件read_csv()方法用來讀取 csv格式的數據文件,read_table()方法則是讀取通用分隔符分隔的數據文件,它們的參數相同。+ str(sheet1.nrows))print('第2行所有數據:' + str(sheet1.row_values(2))) # 包括列名這一行,從0算起,print('第2列所有數據:' + str(sheet1.col_values(1)))print('第1行第1列對應的單元格的值: ' + sheet1.cell(0,0).value)通過pandas.read_excel