模式识别作业二
课本 46页 第4题4.给定正样本x1=(2,3)Tx_1=(2,3)^Tx1=(2,3)T,x2=(3,3)Tx_2=(3,3)^Tx2=(3,3)T,负样本x3=(0,1)Tx_3=(0,1)^Tx3=(0,1)T。试用感知器准则进行分类。解:迭代过程:已知y1=1,y2=1,y3=−1y_1=1,y_2=1,y_3=-1y1=1,y2=1,y3=−1.选学习率η=1\eta=1η
课本 46页 第4题
4.给定正样本 x 1 = ( 2 , 3 ) T x_1=(2,3)^T x1=(2,3)T, x 2 = ( 3 , 3 ) T x_2=(3,3)^T x2=(3,3)T,负样本 x 3 = ( 0 , 1 ) T x_3=(0,1)^T x3=(0,1)T。试用感知器准则进行分类。
解:
迭代过程:
已知 y 1 = 1 , y 2 = 1 , y 3 = − 1 y_1=1,y_2=1,y_3=-1 y1=1,y2=1,y3=−1.选学习率 η = 1 \eta=1 η=1,初值 w 0 = ( 1 , 1 ) T , b 0 = 0 w_0=(1,1)^T,b_0=0 w0=(1,1)T,b0=0.
x i x_i xi | y i ( w ∗ x + b ) ≤ 0 y_i(w*x+b)\leq0 yi(w∗x+b)≤0 | w | b | 判错 | |
---|---|---|---|---|---|
1 | x 1 x_1 x1 | No | - | 0 | |
x 2 x_2 x2 | No | - | 0 | ||
x 3 x_3 x3 | Yes | w = w + y 3 x 3 = ( 1 , 0 ) T w=w+y_3x_3=(1,0)^T w=w+y3x3=(1,0)T | -1 | x 3 x_3 x3 | |
2 | x 1 x_1 x1 | No | - | -1 | |
x 2 x_2 x2 | No | - | -1 | ||
x 3 x_3 x3 | No | - | -1 |
所以 η = 1 , w = ( 1 , 0 ) T , b = − 1 \eta=1,w=(1,0)^T,b=-1 η=1,w=(1,0)T,b=−1为一组解。
1. 使用欧式距离(L2距离)和两种特征进行分类实验
以 欧式距离 作为
K
N
N
KNN
KNN算法的距离计算公式,选花萼的长 、花萼的宽两种作为数据特征,进行
K
N
N
KNN
KNN算法分类。
自行选择一定比例将数据集分为训练集与测试集,考察欧式距离在两种特征下的分类准确率。
训练集与测试集比例:7:3
K K K值为3时:
实际分类 | [ 2 1 2 2 0 0 2 0 1 1 2 0 1 1 1 2 2 0 1 2 1 0 0 0 1 2 0 2 0 0 2 1 0 2 1 0 2 1 2 2 1 1 1 0 0] |
---|---|
预测分类 | [1 1 1 2 0 0 1 0 1 1 1 0 1 1 1 2 2 0 1 1 1 0 0 0 1 1 0 2 0 0 1 1 0 1 1 0 1 1 1 1 1 1 1 0 0] |
预测准确率 | 0.7555555555555555 |
对于不同的 K K K值
K K K | 预测准确率 |
---|---|
1 | 0.755556 |
4 | 0.777778 |
7 | 0.800000 |
10 | 0.800000 |
13 | 0.755556 |
运行结果:
2. 使用欧式距离(L2距离)和四种特征进行分类实验
以欧式距离作为KNN算法的距离计算公式,使用花萼的长 、 花萼的宽 、花瓣的长和花瓣的宽作为数据特征,进行KNN算法分类。
自行选择一定比例将数据集分为训练集与测试集,考察欧式距离在四种特征下的分类准确率。
训练集与测试集比例:7:3
K K K值为3时:
实际分类 | [2 1 2 2 0 0 2 0 1 1 2 0 1 1 1 2 2 0 1 2 1 0 0 0 1 2 0 2 0 0 2 1 0 2 1 0 2 1 2 2 1 1 1 0 0] |
---|---|
预测分类 | [2 1 2 2 0 0 2 0 1 1 1 0 1 1 1 2 2 0 1 2 1 0 0 0 1 2 0 2 0 0 2 1 0 2 1 0 2 1 2 1 1 2 1 0 0] |
预测准确率 | 0.9333333333333333 |
对于不同的
K
K
K值:
3. 使用曼哈顿距离(L1距离)和四种特征进行分类实验
以曼哈顿距离作为 K N N KNN KNN算法的距离计算公式,使用 花萼的长 、 花萼的宽 、 花瓣的长 和 花瓣的宽 作为数据特征,进行 K N N KNN KNN算法分类。
训练集与测试集比例:7:3
K K K值为3时:
实际分类 | [2 1 2 2 0 0 2 0 1 1 2 0 1 1 1 2 2 0 1 2 1 0 0 0 1 2 0 2 0 0 2 1 0 2 1 0 2 1 2 2 1 1 1 0 0] |
---|---|
预测分类 | [2 1 2 2 0 0 2 0 1 1 1 0 1 1 1 2 2 0 1 2 1 0 0 0 1 2 0 2 0 0 2 1 0 2 1 0 2 1 2 1 1 2 1 0 0] |
预测准确率 | 0.9333333333333333 |
K K K | 预测准确率 |
---|---|
1 | 0.933333 |
4 | 0.955556 |
7 | 0.955556 |
10 | 0.955556 |
13 | 0.977778 |
运行结果:
c o d e : code: code:
import numpy as np
import pandas as pd
# 直接引入sklearn里的数据集,鸢尾花iris
from sklearn.datasets import load_iris
# 切分数据集为训练集和测试集
from sklearn.model_selection import train_test_split
# 计算分类预测的准确率
from sklearn.metrics import accuracy_score, classification_report
# TODO 0.数据加载和预处理
iris = load_iris()
df = pd.DataFrame(data=iris.data, columns=iris.feature_names)
df['class'] = iris.target
df['class'] = df['class'].map({0: iris.target_names[0], 1: iris.target_names[1], 2: iris.target_names[2]})
# 调用对象的前n行对象
# print(df.head(3))
# 对象描述的信息 describe()
# print(df.describe())
# 拿出 x , y
x = iris.data
y = iris.target.reshape(-1, 1)
print(x.shape, y.shape)
# 划分训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=35, stratify=y)
# TODO 1.核心算法实现
# 距离函数定义 l1:曼哈顿距离 l2:欧氏距离
def l1_distance(a, b):
return np.sum(np.abs(a - b), axis=1)
def l2_distance(a, b):
return np.sqrt(np.sum((a - b) ** 2, axis=1))
# TODO 2.分类器实现
class kNN(object):
# 定义一个初始化方法,_init_ 是类的构造方法
def __init__(self, n_neighbors=1, dist_func=l1_distance):
self.n_neighbors = n_neighbors
self.dist_func = dist_func
# 训练模型方法
def fit(self, x, y):
self.x_train = x
self.y_train = y
# 模型预测方法
def predict(self, x):
# 初始化预测分类数组
y_pred = np.zeros((x.shape[0], 1), dtype=self.y_train.dtype)
# 遍历输入的x数据点,取出每一个数据点的序号和x_test
for i, x_test in enumerate(x):
# x_test和所有的训练数据计算距离
distances = self.dist_func(self.x_train, x_test)
# 得到的距离由近到远排序,取出索引值
nn_index = np.argsort(distances)
# 选取最近的K个点,保存他们的分类类别
nn_y = self.y_train[nn_index[:self.n_neighbors]].ravel()
# 统计类别中出现频率最高的那个,赋值给y_pred[i]
y_pred[i] = np.argmax(np.bincount(nn_y))
return y_pred
# TODO 3.测试
# 定义一个kNN 实例
print("-----测试 k=3 时-----")
knn = kNN(n_neighbors=3)
# 训练模型
knn.fit(x_train, y_train)
# 传入测试数据做预测
y_pred = knn.predict(x_test)
print(y_test.ravel())
print(y_pred.ravel())
# 求出预测准确率
accuracy = accuracy_score(y_test, y_pred)
print("预测准确率: ", accuracy)
print("----------------------------------------")
# 定义一个KNN实例
knn = kNN()
# 训练模型
knn.fit(x_train, y_train)
# 保存结果到list
result_list = []
knn.dist_func = l1_distance
# 考虑不同的k取值 , 步长为3
for k in range(1, 15, 3):
knn.n_neighbors = k
# 传入测试数据做预测
print("k =",k,':')
y_pred = knn.predict(x_test)
print("实际分类:", y_test.ravel())
print("预测分类:", y_pred.ravel())
# 求出预测准确率
accuracy = accuracy_score(y_test, y_pred)
print("预测准确率: ", accuracy)
result_list.append([k, 'l1_distance', accuracy])
print("----------------------------------------")
df = pd.DataFrame(result_list, columns=['k', '距离函数', '预测准确率'])
print(df)
更多推荐
所有评论(0)