误分类点


设一个点 $\vec x$ 被误分类了 $n$ 次,则由于 $\nabla L=<\vec xy,y>$,更新了 $n$ 次后的 $\vec w$ 为:

对所有的点来说:

所以当 $(\sum\alpha n_i\vec x_iy_i\vec x_j+b)y_j<0$ 时,$\vec x_j$ 就是误分类点。

为了简化计算,我们可以将 $\vec x_i\vec x_j$ 预先取出,形成一个矩阵,这样可以免去重复的计算。


更新权重项与偏置项


由于 $n$ 代表一个点被误分类的次数,所以每次找到误分类点后,只需要 $n+1$ 即相当于更新了权重项。或者简化一下,设 $a=\alpha n$ 则每次更新时只需要:

模板:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
import numpy as np

X_train = np.array([[1, 1], [1, 0], [0, 1], [0, 0]])
Y_train = np.array([1, 1, 1, -1])

class perceptron:
def __init__(self, X, Y, Alpha = 0.01):
self.alpha = Alpha
self.X_trn = np.array(X)
self.Y_trn = np.array(Y)
self.B = np.random.rand()
self.lenth = len(self.X_trn)
self.a = np.zeros(self.lenth)

self.mat = np.zeros((self.lenth, self.lenth))
for i in range(self.lenth):
for j in range(self.lenth):
self.mat[i, j] = np.dot(self.X_trn[i], self.X_trn[j])

def check(self, j):
Sum = np.dot(self.a * self.Y_trn, self.mat[j]) + self.B
if (Sum * self.Y_trn[j] >= 0):
return True
else:
return False

def Loss_func(self, j):
self.a[j] += self.alpha
self.B += self.alpha * self.Y_trn[j]

def train(self):
Error = True
k = 0
while (Error):
Error = False
for i in range(self.lenth):
if (self.check(i) == False):
self.Loss_func(i)
Error = True
print(self.a)
print("W: ", np.dot(self.a * self.Y_trn, self.X_trn), " B: ", self.B)

per = perceptron(X_train, Y_train, 0.01)
per.train()