天天看點

pandas資料處理清洗案例:中文位址拆分

一、案例場景

字段login_place,一共267725行記錄,随機15條記錄如下:

pandas資料處理清洗案例:中文位址拆分

  後續資料分析工作需要用到地理次元進行分析,是以需要把login_place字段進行拆分成:國家、省份、地區。

二、初步方案

  第三方中文分詞庫:jieba,可以對文本進行拆分。使用參考資料:jieba庫的使用。

初步方案:

  1. 用jieba.cut()将文本拆分為單詞清單list_word;
  2. 分支判斷list_word長度,指派國家、城市、地區。
pandas資料處理清洗案例:中文位址拆分

代碼:(抽取1000條記錄,看一下我這台機器的運作時間)

%%time
# 地區拆分
for i in range(1000):
    list_word=[word for word in jieba.cut(df.iloc[i,0])]
    if len(list_word)==1:
        if \'中國\' in df.iloc[i,0]:
            df.loc[i,\'國家\']=df.iloc[i,0][0:2]
            df.loc[i,\'省份\']=df.iloc[i,0][2:]
        else:
            df.loc[i,\'國家\']=df.iloc[i,0]
    elif len(list_word)==2:
        df.loc[i,\'國家\']=list_word[0]
        df.loc[i,\'省份\']=list_word[1]
    else:
        df.loc[i,\'國家\']=list_word[0]
        df.loc[i,\'省份\']=list_word[1]
        df.loc[i,\'地區\']=list_word[2]
    if i%100==0:
        print(f\'{round(i*100/(int(1000)),2)}%\')
           
pandas資料處理清洗案例:中文位址拆分

  1000條用了1min 37秒。如果全部進行資料解析等待時間應該很久很久。有很多重複的記錄,這裡先去重,再跑一次代碼。

pandas資料處理清洗案例:中文位址拆分

  去重之後,隻有404不重複的記錄。

pandas資料處理清洗案例:中文位址拆分

  再跑一遍代碼,并且把結果儲存到本地檔案‘df_test.xlsx’。便于檢視jieba第三方分詞庫對本次資料拆分是不是想要的結果。

國家:

pandas資料處理清洗案例:中文位址拆分

‘國家’這一列,中國***沒有拆分出來。

pandas資料處理清洗案例:中文位址拆分

代碼試了一下,發現‘中國***’确實拆分不了。證明了***确實中國不可缺失的一部分。

省份:

pandas資料處理清洗案例:中文位址拆分

  ‘省份’這一列拆分的更加糟糕。

總結:總資料集運作時間長,切詞不準确。需要優化拆分方案!

三、優化方案

  在上面檢視Excel檔案時候發現‘login_place’字段的資料有以下特點:

  1. 整個資料集分類兩類:‘中國’和外國;
  2. 中國的省份大多是兩個字,除了‘黑龍江’和‘内蒙古’;
  3. 外國的,隻有國家記錄。

優化方案:

  1. 對國家判斷,形成分支:中國和外國;
  2. 對于中國,再判斷省份是不是‘黑龍江’和‘内蒙古’。
  3. 不是:可以直接切分[2:4],提取省份。[4:],提取地區;
  4. 是:[2:5]提取省份。[5:]提取地區
pandas資料處理清洗案例:中文位址拆分
%%time
# 地區拆分
for i in range(df.shape[0]):
    if \'中國\' in df.iloc[i,0] :
        df.loc[i,\'國家\'] = \'中國\'
        if (\'内蒙古\' in df.iloc[i,0]) or (\'黑龍江\' in df.iloc[i,0]):
#             print(df.iloc[i,0])
            df.loc[i,\'省份\'] = df.iloc[i,0][2:5]
            if len(df.iloc[i,0]) > 5:
                df.loc[i,\'地區\'] = df.iloc[i,0][5:]
        else:
            df.loc[i,\'省份\'] = df.iloc[i,0][2:4] 
            df.loc[i,\'地區\'] = df.iloc[i,0][4:]
    else:
        list_word = [word for word in jieba.cut(df.iloc[i,0])]
        if len(list_word) == 1:
            df.loc[i,\'國家\'] = df.iloc[i,0][0:2]
            df.loc[i,\'省份\'] = df.iloc[i,0][2:]
        else:
            df.loc[i,\'國家\'] = list_word[0]
            df.loc[i,\'省份\'] = list_word[1]
    if i%100==0:
        print(f\'{round(i*100/(int(df.shape[0])),2)}%\')
           
pandas資料處理清洗案例:中文位址拆分

 儲存Excel檔案,再次檢視拆分情況。經過去重後的測試集拆分符合想要的結果。

 運作未去重源資料集結果:

pandas資料處理清洗案例:中文位址拆分