今天跟大家聊聊KNN算法如何识别手写数字,可能很多人都不太懂。为了让大家更好的了解,边肖为大家总结了以下内容,希望大家能从这篇文章中有所收获。
今天,使用KNN 算法识别手写数字?怎么样
00-1010手写数字数据集是用于图像处理的数据集。这些数据描述了[0, 9],的数字,我们可以用KNN 算法来识别这些数字。
MNIST是一个完整的手写数字数据集,包含60000个训练样本和10000个测试样本。
sklearn也有自己的手写数字数据集:
它包含1797个数据样本,每个样本描述一个8*8像素的[0, 9]数。
每个样本由65个数字组成:
前64位是特征数据,特征数据的范围是[0, 16].
最后一个数字是目标数据,目标数据的范围是[0, 9].
让我们取五个样本来看看:
0,0,5,13,9,1,0,0,0,0,13,15,10,15,5,0,0,3,15,2,0,11,8,0,0,4,12,0,0,8,8,0,0,5,8,0,0,9,8,0,0,4,11,0,1,12,7,0,0,2,14,5,10,12,0,0,0,0,6,13,10,0,0,0,0
0,0,0,12,13,5,0,0,0,0,0,11,16,9,0,0,0,0,3,15,16,6,0,0,0,7,15,16,16,2,0,0,0,0,1,16,16,3,0,0,0,0,1,16,16,6,0,0,0,0,1,16,16,6,0,0,0,0,0,11,16,10,0,0,1
0,0,0,4,15,12,0,0,0,0,3,16,15,14,0,0,0,0,8,13,8,16,0,0,0,0,1,6,15,11,0,0,0,1,8,13,15,1,0,0,0,9,16,16,5,0,0,0,0,3,13,16,16,11,5,0,0,0,0,3,11,16,9,0,2
0,0,7,15,13,1,0,0,0,8,13,6,15,4,0,0,0,2,1,13,13,0,0,0,0,0,2,15,11,1,0,0,0,0,0,1,12,12,1,0,0,0,0,0,1,10,8,0,0,0,8,4,5,14,9,0,0,0,7,13,13,9,0,0,3
0,0,0,1,11,0,0,0,0,8,0,0,0,0,0,0,0,0,0,0,0,0,0,1,13,6,2,2,0,0,0,0,0,0,0,0,0,0,0,0,0,0,7,15,0,9,8.
from sklearn . dataset simportload _ digits
数字=加载数字()查看第一个图像数据:
digits.images[0]
数组([[0。0.5.13.9.1.0.0.],
[0.0.13.15.10.15.5.0.],
[0.3.15.2.0.11.8.0.],
[0.4.12.0.0.8.8.0.],
[0.5.8.0.n
bsp; 0., 9., 8., 0.],
[ 0., 4., 11., 0., 1., 12., 7., 0.],
[ 0., 2., 14., 5., 10., 12., 0., 0.],
[ 0., 0., 6., 13., 10., 0., 0., 0.]])
我们可以用 matplotlib 将该图像画出来:
>>> import matplotlib.pyplot as plt >>> plt.imshow(digits.images[0]) >>> plt.show()
画出来的图像如下,代表 0:
2,sklearn 对 KNN 算法的实现
sklearn 库的 neighbors 模块实现了KNN 相关算法,其中:
-
KNeighborsClassifier
类用于分类问题 -
KNeighborsRegressor
类用于回归问题
这两个类的构造方法基本一致,这里我们主要介绍 KNeighborsClassifier
类,原型如下:
KNeighborsClassifier( n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None, **kwargs)
来看下几个重要参数的含义:
-
n_neighbors:即 KNN 中的 K 值,一般使用默认值 5。
-
weights:用于确定邻居的权重,有三种方式:
-
weights=uniform,表示所有邻居的权重相同。
-
weights=distance,表示权重是距离的倒数,即与距离成反比。
-
自定义函数,可以自定义不同距离所对应的权重,一般不需要自己定义函数。
-
algorithm:用于设置计算邻居的算法,它有四种方式:
-
调整 leaf_size 会影响树的构造和搜索速度。
-
它和 KD 树相比,采用的是线性扫描,而不是通过构造树结构进行快速检索。
-
缺点是,当训练集较大的时候,效率很低。
-
与KD 树一样都是多维空间的数据结构。
-
球树更适用于维度较大的情况。
-
KD 树是一种多维空间的数据结构,方便对数据进行检索。
-
KD 树适用于维度较少的情况,一般维数不超过 20,如果维数大于 20 之后,效率会下降。
-
algorithm=auto,根据数据的情况自动选择适合的算法。
-
algorithm=kd_tree,使用 KD 树 算法。
-
algorithm=ball_tree,使用球树算法。
-
algorithm=brute,称为暴力搜索。
-
leaf_size:表示构造 KD 树或球树时的叶子节点数,默认是 30。
3,构造 KNN 分类器
首先加载数据集:
from sklearn.datasets import load_digits digits = load_digits() data = digits.data # 特征集 target = digits.target # 目标集
将数据集拆分为训练集(75%)和测试集(25%):
from sklearn.model_selection import train_test_split train_x, test_x, train_y, test_y = train_test_split( data, target, test_size=0.25, random_state=33)
构造KNN 分类器:
from sklearn.neighbors import KNeighborsClassifier # 采用默认参数 knn = KNeighborsClassifier()
拟合模型:
knn.fit(train_x, train_y)
预测数据:
predict_y = knn.predict(test_x)
计算模型准确度:
from sklearn.metrics import accuracy_score score = accuracy_score(test_y, predict_y) print score # 0.98
最终计算出来模型的准确度是 98%,准确度还是不错的。
看完上述内容,你们对KNN算法中如何识别手写数字有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注行业资讯频道,感谢大家的支持。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/156000.html