一、建模基本流程
- 数据处理
- 建立模型
- 训练模型
- 评估模型
- 模型预测
- 保存模型
二、结构化数据建模流程
数据文件:
链接:https://pan.baidu.com/s/1H3QBVLPv4WeUnIYH92OKEA?pwd=wh77
提取码:wh77
2.1 泰塔尼克号数据
数据描述:
RMS 泰坦尼克号的沉没是历史上最为人熟知的海难事件之一。 1912 年 4 月 15 日,在她的处女航中,泰坦尼克号在与冰山相撞后沉没,在船上的 2224 名乘客和机组人员中,共造成 1502 人死亡。这场耸人听闻的悲剧震惊了国际社会,从而促进了船舶安全规定的完善。
造成海难失事的原因之一是乘客和机组人员没有足够的救生艇。尽管在沉船事件中幸存下有一些运气因素,但有些人比其他人更容易存活下来,比如女人,孩子和上流社会。
在这个挑战中,要求完成哪些人可能存活下来的分析。特别的,要求运用机器学习工具来预测哪些乘客能够幸免于悲剧。titanic数据集的目标是根据乘客信息预测他们在Titanic号撞击冰山沉没后能否生存。
如图:
共有 11 个特征:
- PassengerId: 乘客 ID
- Pclass:乘客所持票类,有三种值(1,2,3) 【转换成onehot编码】
- Name: 乘客姓名 【舍去】
- Sex: 性别【转换成bool特征】
- Age: 年龄(有缺失) 【数值特征,添加“年龄是否缺失”作为辅助特征】
- SibSp: 在船上的兄弟姐妹/配偶个数【数值特征】
- Parch: 在船上的父母/小孩个数【数值特征】
- Ticket: 船票信息(字符串)【舍去】
- Fare: 票价(浮点数,0-500不等) 【数值特征】
- Cabin: 客舱(有缺失) 【添加“所在船舱是否缺失”作为辅助特征】
- Embarked: 登船港口 (C = Cherbourg, Q = Queenstown, S = Southampton)。S、C、Q(有缺失)【转换成onehot编码,四维度 S,C,Q,nan】
- Survived:0代表死亡,1代表存活【y标签】
2.2 数据处理
读取数据:
import pandas as pd
dftrain_raw = pd.read_csv('train.csv')
dftest_raw = pd.read_csv('test.csv')
dftrain_raw.head(10)
如下:
利用Pandas的数据可视化功能我们可以简单地进行探索性数据分析EDA(Exploratory Data Analysis):
import matplotlib.pyplot as plt
ax = dftrain_raw['Survived'].value_counts().plot(kind = 'bar',
figsize = (12,8),fontsize=15,rot = 0)
ax.set_ylabel('Counts',fontsize = 15)
ax.set_xlabel('Survived',fontsize = 15)
plt.show()
年龄分布情况
ax = dftrain_raw['Age'].plot(kind = 'hist',bins = 20,color= 'purple',
figsize = (12,8),fontsize=15)
ax.set_ylabel('Frequency',fontsize = 15)
ax.set_xlabel('Age',fontsize = 15)
plt.show()
删除不相关的两列:
df1=dftrain_raw.drop(['Name','Ticket'], axis=1)
df1.head(10)
数据描述
df1.describe()
查看缺失值数量
df1.isnull().sum()
编码处理:
dfresult= pd.DataFrame()
dfPclass = pd.get_dummies(dftrain_raw['Pclass']) # 标准化
dfPclass.columns = ['Pclass_' +str(x) for x in dfPclass.columns ] # 列名
dfresult = pd.concat([dfresult,dfPclass],axis = 1)
dfresult
dfSex = pd.get_dummies(dftrain_raw['Sex']) #性别编码
dfresult = pd.concat([dfresult,dfSex],axis = 1)
dfresult
dfresult['Age'] = dftrain_raw['Age'].fillna(0)
dfresult['Age_null'] = pd.isna(dftrain_raw['Age']).astype('int32')
dfresult['SibSp'] =dftrain_raw['SibSp']
dfresult['Parch'] = dftrain_raw['Parch']
dfresult['Fare'] = dftrain_raw['Fare']
dfresult['Cabin_null'] = pd.isna(dftrain_raw['Cabin']).astype('int32')
dfEmbarked = pd.get_dummies(dftrain_raw['Embarked'],dummy_na=True)
dfEmbarked.columns = ['Embarked_' + str(x) for x in dfEmbarked.columns]
dfresult = pd.concat([dfresult,dfEmbarked],axis = 1)
dfresult
获取x属性和y标签:
y= dftrain_raw['Survived'].values
y
x=dfresult
分割数据:
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.25,random_state=100)
2.3 建立模型
选择使用最简单的Sequential,按层顺序模型:
import tensorflow as tf
from tensorflow.keras import models,layers
tf.keras.backend.clear_session()
model = models.Sequential()
model.add(layers.Dense(20,activation = 'relu',input_shape=(15,)))
model.add(layers.Dense(10,activation = 'relu' ))
model.add(layers.Dense(1,activation = 'sigmoid' ))
model.summary()
如图:
2.4 训练模型
训练模型通常有3种方法,内置fit方法,内置train_on_batch方法,以及自定义训练循环。此处我们选择最常用也最简单的内置fit方法:
# 二分类问题选择二元交叉熵损失函数
model.compile(optimizer='adam',
loss='binary_crossentropy',
metrics=['AUC'])
history = model.fit(X_train,y_train,
batch_size= 64,
epochs= 30,
validation_split=0.2 #分割一部分训练数据用于验证
)
如下:
2.5 评估模型
评估一下模型在训练集和验证集上的效果:
import matplotlib.pyplot as plt
def plot_metric(history, metric):
train_metrics = history.history[metric]
val_metrics = history.history['val_'+metric]
epochs = range(1, len(train_metrics) + 1)
plt.plot(epochs, train_metrics, 'bo--')
plt.plot(epochs, val_metrics, 'ro-')
plt.title('Training and validation '+ metric)
plt.xlabel("Epochs")
plt.ylabel(metric)
plt.legend(["train_"+metric, 'val_'+metric])
plt.show()
plot_metric(history,"loss")
如图:
plot_metric(history,"auc")
如图:
基本准确度评估:
model.evaluate(x = X_test,y = y_test)
如图:
2.6 模型预测
预测前十个值:
model.predict(X_test[0:10])
#model(tf.constant(x_test[0:10].values,dtype = tf.float32)) #等价写法
预测类别:
import numpy as np
predictions = np.argmax(model.predict(X_test[:10]),axis=1)
predictions
如图:
27 保存模型
可以使用Keras方式保存模型,也可以使用TensorFlow原生方式保存。前者仅仅适合使用Python环境恢复模型,后者则可以跨平台进行模型部署。因此推荐第二种方法。
第一种:
保存模型结构及权重:
# 保存模型结构及权重
model.save('keras_model.h5')
del model #删除现有模型
# 加载保存的模型
model = models.load_model('keras_model.h5')
model.evaluate(X_test,y_test) # 评估
如图:
保存模型结构:
# 保存模型结构
json_str = model.to_json()
# 恢复模型结构
model_json = models.model_from_json(json_str)
保存模型权重
#保存模型权重
model.save_weights('keras_model_weight.h5')
# 恢复模型结构
model_json = models.model_from_json(json_str)
model_json.compile(
optimizer='adam',
loss='binary_crossentropy',
metrics=['AUC']
)
# 加载权重
model_json.load_weights('keras_model_weight.h5')
model_json.evaluate(X_test,y_test)
以上会选择一个就行。
第二种: TensorFlow原生方式保存
保存权重,该方式仅仅保存权重张量:
model.save_weights('tf_model_weights.ckpt',save_format = "tf")
保存模型结构与模型参数到文件,该方式保存的模型具有跨平台性便于部署:
model.save('tf_model_savedmodel', save_format="tf")
print('export saved model.')
model_loaded = tf.keras.models.load_model('tf_model_savedmodel')
model_loaded.evaluate(X_test,y_test)
可以回到文件夹,看保存的模型文件:
文章来源:https://www.toymoban.com/news/detail-483499.html
欢迎关注我的公众号:
文章来源地址https://www.toymoban.com/news/detail-483499.html
到了这里,关于深度学习项目:泰坦尼克号生存预测【附完整源码】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!