参考:

https://blog.csdn.net/BSLDTH/article/details/106405281

#导入需要的库
import numpy as np
import pandas as pd 
import matplotlib.pyplot as plt
from sklearn.ensemble import RandomForestRegressor , RandomForestClassifier
from sklearn.model_selection import cross_val_score,train_test_split
from sklearn.datasets import load_boston
from sklearn.impute import SimpleImputer

#2. 以波士顿数据集为例,导入完整的数据集并探索
dataset = load_boston()
dataset.data.shape
>>(506, 13)

X_full, y_full = dataset.data, dataset.target  #赋值

n_samples = X_full.shape[0]   #506
n_features = X_full.shape[1]  #13

#3. 为完整数据集放入缺失
#首先确定我们希望放入的缺失数据的比例,在这里我们假设是50%,那总共就要有3289个数据缺失
rng = np.random.RandomState(0)
missing_rate = 0.5
n_missing_samples = int(np.floor(n_samples * n_features * missing_rate))
#np.floor向下取整,返回.0格式的浮点数
n_missing_samples
>>3289

#所有数据要随机遍布在数据集的各行各列当中,而一个缺失的数据会需要一个行索引和一个列索引
#如果能够创造一个数组,包含3289个分布在0~506中间的行索引,和3289个分布在0~13之间的列索引,那我们就可
#以利用索引来为数据中的任意3289个位置赋空值
#然后我们用0,均值和随机森林来填写这些缺失值,然后查看回归的结果如何

missing_features = rng.randint(0,n_features,n_missing_samples)     #生成随机3289个列索引
missing_samples = rng.randint(0,n_samples,n_missing_samples)       #随机生成3289个行索引

#missing_samples = rng.choice(dataset.data.shape[0],n_missing_samples,replace=False)
#我们现在采样了3289个数据,远远超过我们的样本量506,所以我们使用随机抽取的函数randint。但如果我们需要
#的数据量小于我们的样本量506,那我们可以采用np.random.choice来抽样,choice会随机抽取不重复的随机数,
#因此可以帮助我们让数据更加分散,确保数据不会集中在一些行中

X_missing = X_full.copy()    #注意copy()和deepcopy()区别
y_missing = y_full.copy()

X_missing[missing_samples,missing_features] = np.nan    #生成506条数据并将3289处更新为 NAN 值
X_missing = pd.DataFrame(X_missing)   

#转换成DataFrame是为了后续方便各种操作,numpy对矩阵的运算速度快到拯救人生,但是在索引等功能上却不如pandas来得好用

#4. 使用0和均值填补缺失值

#使用均值进行填补

imp_mean = SimpleImputer(missing_values=np.nan, strategy='mean')
X_missing_mean = imp_mean.fit_transform(X_missing)

#使用0进行填补

imp_0 = SimpleImputer(missing_values=np.nan, strategy="constant",fill_value=0)  #constant-常数
X_missing_0 = imp_0.fit_transform(X_missing)

X_missing_reg = X_missing.copy()
sortindex = np.argsort(X_missing_reg.isnull().sum(axis=0)).values  #np.argsort()返回的是数组值从小到大的索引值
sortindex
>>array([ 6, 12,  8,  7,  9,  0,  2,  1,  5,  4,  3, 10, 11], dtype=int64)
for i in sortindex:      #sortindex是按缺失值数据量从小到大排列的行索引

    #构建我们的新特征矩阵和新标签

    df = X_missing_reg  
    fillc = df.iloc[:,i]     #缺失值列数据
    df = pd.concat([df.iloc[:,df.columns != i],pd.DataFrame(y_full)],axis=1)    #其他特征和标签列合并

    #在新特征矩阵中,对含有缺失值的列,进行0的填补

    df_0 =SimpleImputer(
                        missing_values=np.nan,
                        strategy='constant',
                        fill_value=0
                        ).fit_transform(df)

    #找出我们的训练集和测试集

    Ytrain = fillc[fillc.notnull()]
    Ytest = fillc[fillc.isnull()]
    Xtrain = df_0[Ytrain.index,:]
    Xtest = df_0[Ytest.index,:]

    #用随机森林回归来填补缺失值
    # 7. 用所得结果画出条形图

    rfc = RandomForestRegressor(n_estimators=100)
    rfc = rfc.fit(Xtrain, Ytrain)
    Ypredict = rfc.predict(Xtest)    #得出预测值

    #将填补好的特征返回到我们的原始的特征矩阵中

    X_missing_reg.loc[X_missing_reg.iloc[:,i].isnull(),i] = Ypredict


#6. 对填补好的数据进行建模
#对所有数据进行建模,取得MSE结果

X = [X_full,X_missing_mean,X_missing_0,X_missing_reg]
mse = []
std = []
for x in X:
    estimator = RandomForestRegressor(random_state=0, n_estimators=100)
    scores = cross_val_score(estimator,x,y_full,scoring='neg_mean_squared_error',cv=5).mean()
    mse.append(scores * -1)

#7. 用所得结果画出条形图
x_labels = ['Full data',
            'Zero Imputation',
            'Mean Imputation',
            'Regressor Imputation'
           ]
colors = ['r', 'g', 'b', 'orange']
plt.figure(figsize=(12, 6))
ax = plt.subplot(111)
for i in np.arange(len(mse)):
    ax.barh(i, mse[i],color=colors[i], alpha=0.6, align='center')
ax.set_title('Imputation Techniques with Boston Data')
ax.set_xlim(left=np.min(mse) * 0.9,right=np.max(mse) * 1.1)
ax.set_yticks(np.arange(len(mse)))
ax.set_xlabel('MSE')
ax.set_yticklabels(x_labels)
plt.show()