Tensorflow学习003——tf.keras实现线性回归。
2.2 tf.keras实现线性回归
不用说,上一篇关于机器学习原理的论文——线性回归可以直接运行代码。
点击代码导入熊猫为pd。
将张量流导入为tf
data=pd.read_csv('。/dataset/Income 1 . CSV’)
X=数据。教育#这是收入表中给出的列名。
y=数据。收入
Model=tf.keras.Sequential() #创建一个序列模型
#添加到模型的图层的输出只有一个f(x),所以是,输入只有x,也是一维的,所以它的元组形式是(1,)
model . add(TF . keras . layers . density(1,input_shape=(1,))
#输出模型的结构
Print(model.summary()) #如图2-3所示。
#编译
Model.compile(优化器=' Adam ',损失=' MSE') #设置优化器和损失函数
#进行培训
历史=模型。fit (x,y,epoch=10000)# epoch表示所有数据的训练次数x y分别是训练数据的输入和输出。
#使用训练好的模型进行预测。
打印(模型。预测(pd。数列([20])#由于训练中使用的数列,这种格式也常用于预测。
图2-3
这里,密集层中的输出形状(无,1),无表示输出数量,如果有一百个数据,则无为100。第二个1表示输出维度为1。
Param为2,表示有两个参数,即A和B,ax b中的B表示偏差,即截距。如果不想要此偏差,可以在密集()层中将use_bias设置为False。a是重量。
图2-4
在训练过程中,我们可以看到损失的值越来越小,即拟合效果越来越好,这取决于优化器的计算方法和损失函数。
作者:孙
来源:http://www.cnblogs.com/sunjianzhao/
本文版权归作者和博客公园所有,欢迎转载。但本声明未经作者同意必须保留,并在文章页面显著位置给出原文链接,否则保留追究法律责任的权利。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/89915.html