携手创造,一起成长!这是我参与「日新方案 8 月更文挑战」的第4天,点击查看活动概况
原文链接
大家好,我是小寒。
今日来共享一个真实的 Kaggle ⽐赛事例:猜测房价。此数据集由 Bart DeCock 于 2011 年收集,涵盖了2006-2010 年期间亚利桑那州埃姆斯市的房价。
读取数据集
数据分为练习集和测验集。每条记载包括了房子的特点,如大街类型、施⼯年份、房顶类型、地下室情况等。这些特征由各种数据类型组成。
咱们使⽤ pandas 别离加载包括练习数据和测验数据的两个 CSV ⽂件。
train_data = pd.read_csv("../data/kaggle_house_pred_train.csv")
test_data = pd.read_csv("../data/kaggle_house_pred_test.csv")
让咱们看看前四个和最后两个特征,以及相应标签(房价)。
print(train_data.iloc[0:4, [0, 1, 2, 3, -3, -2, -1]])
咱们能够看到,在每个样本中,第⼀个特征是 ID,这有助于模型辨认每个练习样本。尽管这很⽅便,但它不带着任何⽤于猜测的信息。因而,在将数据提供给模型之前,咱们将其从数据集中删去。
all_features = pd.concat((train_data.iloc[:, 1:-1], test_data.iloc[:, 1:]))
数据预处理
在开端建模之前,咱们需求对数据进⾏预处理。
⾸先,咱们将所有缺失的值替换为相应特征的均匀值。然后,为了将所有特征放在⼀个一起的尺度上,咱们将特征从头缩放到零均值和单位⽅差来标准化数据。
# 若⽆法取得测验数据,则可根据练习数据计算均值和标准差
numeric_features = all_features.dtypes[all_features.dtypes != 'object'].index
all_features[numeric_features] = all_features[numeric_features].apply(
lambda x: (x - x.mean()) / (x.std()))
# 在标准化数据之后,所有均值消失,因而咱们能够将缺失值设置为0
all_features[numeric_features] = all_features[numeric_features].fillna(0)
接下来,咱们处理离散值。这儿运用独热编码替换它们。
# “Dummy_na=True”将“na”(缺失值)视为有效的特征值,并为其创立指⽰符特征
all_features = pd.get_dummies(all_features, dummy_na=True)
最后转换为张量格局,以便进行下一步的练习过程。
#练习集的样本个数
n_train = train_data.shape[0]
#获取练习集和测验集
train_features = torch.tensor(all_features[:n_train].values, dtype=torch.float32)
test_features = torch.tensor(all_features[n_train:].values, dtype=torch.float32)
#练习集对应的标签
train_labels = torch.tensor(train_data.SalePrice.values.reshape(-1, 1), dtype=torch.float32)
模型架构
咱们这儿运用最简略的线性回归模型来预估房子的价格。它的模型结构如下图所示。
线性回归也能够看做是一个单层的神经网络,咱们在 Pytorch 界说一个线性回归模型。
def get_net():
net = nn.Sequential(nn.Linear(in_features,1))
return net
练习
房价就像股票价格⼀样,咱们关⼼的是相对数量,⽽不是肯定数量。因而,咱们更关⼼相对误差 (y – y)/ y ,⽽不是肯定误差 y – y。例如,假如咱们在俄亥俄州农村地区估量⼀栋房⼦的价格时,假定咱们的猜测,误差了10万美元,然⽽那⾥⼀栋典型的房⼦的价值是12.5万美元,那么模型可能做得很糟糕。
另⼀⽅⾯,假如咱们在加州豪宅区的猜测呈现同样的10 万美元的误差,(在那⾥,房价中位数超过400万美元)这可能是⼀个不错的猜测。
解决这个问题的⼀种⽅法是⽤价格猜测的对数来衡量差异。
def log_rmse(net, features, labels):
#为了在取对数时进⼀步稳定该值,将⼩于1的值设置为1
clipped_preds = torch.clamp(net(features), 1, float('inf'))
rmse = torch.sqrt(loss(torch.log(clipped_preds),
torch.log(labels)))
return rmse.item()
咱们这儿运用 Adam 优化器进行优化。Adam优化器的首要招引⼒在于它对初始学习率不那么敏感。
def train(net, train_features, train_labels, test_features, test_labels,
num_epochs, learning_rate, weight_decay, batch_size):
train_ls, test_ls = [], []
train_iter = load_array((train_features, train_labels), batch_size)
# 这⾥使⽤的是Adam优化算法
optimizer = torch.optim.Adam(net.parameters(),
lr = learning_rate,
weight_decay = weight_decay)
for epoch in range(num_epochs):
for X, y in train_iter:
optimizer.zero_grad()
l = loss(net(X), y)
l.backward()
optimizer.step()
train_ls.append(log_rmse(net, train_features, train_labels))
if test_labels is not None:
test_ls.append(log_rmse(net, test_features, test_labels))
return train_ls, test_ls
K 折穿插验证
运用 K 折穿插验证,它有助于模型挑选和超参数调整。
咱们⾸先需求界说⼀个函数,在 K 折穿插验证过程中返回第 i 折的数据。
def get_k_fold_data(k, i, X, y):
fold_size = X.shape[0] // k
X_train, y_train = None, None
for j in range(k):
idx = slice(j * fold_size, (j + 1) * fold_size)
X_part, y_part = X[idx, :], y[idx]
if j == i:
X_valid, y_valid = X_part, y_part
elif X_train is None:
X_train, y_train = X_part, y_part
else:
X_train = torch.cat([X_train, X_part], 0)
y_train = torch.cat([y_train, y_part], 0)
return X_train, y_train, X_valid, y_valid
当咱们在 K 折穿插验证中练习 K 次后,返回练习和验证误差的均匀值。
def k_fold(k, X_train, y_train, num_epochs, learning_rate, weight_decay,batch_size):
train_l_sum, valid_l_sum = 0, 0
for i in range(k):
data = get_k_fold_data(k, i, X_train, y_train)
net = get_net()
train_ls, valid_ls = train(net, *data, num_epochs, learning_rate,
weight_decay, batch_size)
train_l_sum += train_ls[-1]
valid_l_sum += valid_ls[-1]
print(f'折{i + 1},练习 log rmse{float(train_ls[-1]):f}, ' f'验证log rmse{float(valid_ls[-1]):f}')
return train_l_sum / k, valid_l_sum / k
模型挑选
咱们这儿仅仅给出了⼀组未调优的超参数。
你能够多挑选一些超参数,然后进行调优,挑选一组误差最小的超参数。
k, num_epochs, lr, weight_decay, batch_size = 5, 100, 5, 0, 64
train_l, valid_l = k_fold(k, train_features, train_labels, num_epochs, lr,
weight_decay, batch_size)
print(f'{k}-折验证: 均匀练习log rmse: {float(train_l):f}, ' f'均匀验证log rmse: {float(valid_l):f}')
进行练习和猜测
既然咱们知道应该挑选什么样的超参数,咱们无妨使⽤所有数据对其进⾏练习(⽽不是仅使⽤穿插验证中使⽤的 1 – 1/K 的数据)。
然后,咱们经过这种⽅式取得的模型能够应⽤于测验集。
def train_and_pred(train_features, test_features, train_labels, test_data,
num_epochs, lr, weight_decay, batch_size):
net = get_net()
train_ls, _ = train(net, train_features, train_labels, None, None,
num_epochs, lr, weight_decay, batch_size)
plt.plot(np.arange(1, num_epochs + 1), train_ls)
plt.xlabel('epoch')
plt.ylabel('log rmse')
plt.yscale('log')
plt.show()
print(f'练习log rmse:{float(train_ls[-1]):f}')
# 将⽹络应⽤于测验集。
preds = net(test_features).detach().numpy()
print(preds)
train_and_pred(train_features, test_features, train_labels, test_data,
num_epochs, lr, weight_decay, batch_size)
损失改变如下图所示。
最后
今日简略介绍了一个如何用 Pytorch 练习一个简略的房价猜测。