Bootstrap

深度学习1

激活函数

激活函数(activation function):将输入信号的总和转换为输出信号。

阶跃函数

python代码实现:

def step_function(x):
	y = x > 0
	return y.astype(np.int)  

对NumPy数组进行不等号运算后 ,数组的各个元素生成一个布尔型数组。
astype()方法转换NumPy数组的类型,数组y的元素类型从布尔型转换为int型。
阶跃函数的图形

图1 阶跃函数的图形

sigmoid 函数

sigmoid 函数数学公式:
h ( x ) = 1 1 + e − x h(x)=\frac{1}{1+e^{-x}} h(x)=1+ex1
python代码实现:

def sigmoid(x):
	return 1 / (1 + np.exp(-x))

sigmoid 函数

图2 sigmoid 函数的图形

ReLU函数

ReLU:Rectified Linear Unit

ReLU 函数数学公式:
f ( x ) = { x ( x &gt; 0 ) y ( x &lt; 0 ) f(x)=\left\{ \begin{aligned} x &amp; &amp; (x&gt;0)\\ y &amp; &amp; (x&lt;0) \\ \end{aligned} \right. f(x)={xy(x>0)(x<0)
python代码实现:

def relu(x):
    return np.maximum(0, x)

在这里插入图片描述

图3 ReLU函数的图形

三层神经网络的实现

3层神经网络:
输入层(第0 层)有2 个神经元,
第1 个隐藏层(第1 层)有3 个神经元,
第2 个隐藏层(第2 层)有2 个神经元,
输出层(第3 层)有2 个神经元。

神经网络符号含义

在这里插入图片描述

图4 权重的符号

各层间信号传递的实现

在这里插入图片描述

图5 从输入层到第1层的信号传递

神经元“1”表示偏置,其右下角的索引号只有一个。这是因为前一层的偏置神经元(神经元“1”)只有一个。

用数学式表示 a 1 ( 1 ) a1^{(1)} a1(1),通过加权信号和偏置的和按如下方式进行计算
a 1 ( 1 ) = w 1 1 ( 1 ) x 1 + w 1 2 ( 1 ) x 2 + b 1 ( 1 ) a1^{(1)}=w11^{(1)}x1+w12^{(1)}x2+b1^{(1)} a1(1)=w11(1)x1+w12(1)x2+b1(1) 使用矩阵的乘法运算,则可以将第1层的加权和表示成下面的式子
A ( 1 ) = X W ( 1 ) + B ( 1 ) A^{(1)}=XW^{(1)}+B^{(1)} A(1)=XW(1)+B(1)

其中 A ( 1 ) A^{(1)} A(1) X X X B ( 1 ) B^{(1)} B(1) W ( 1 ) W^{(1)} W(1)、如下所示。

A ( 1 ) = ( a 1 ( 1 ) a 2 ( 1 ) a 3 ( 1 ) ) A^{(1)}=\begin{pmatrix}a1^{(1)} &amp; a2^{(1)} &amp; a3^{(1)}\end{pmatrix} A(1)=(a1(1)a2(1)a3(1)) X = ( x 1 x 2 ) X=\begin{pmatrix}x_{1} &amp; x_{2}\end{pmatrix} X=(x1x2) B ( 1 ) = ( b 1 ( 1 ) b 2 ( 1 ) b 3 ( 1 ) ) B^{(1)}=\begin{pmatrix}b1^{(1)} &amp; b2^{(1)} &amp; b3^{(1)}\end{pmatrix} B(1)=(b1(1)b2(1)b3(1)),

W ( 1 ) = ( w 11 ( 1 ) w 21 ( 1 ) w 31 ( 1 ) w 11 ( 1 ) w 21 ( 1 ) w 31 ( 1 ) ) W^{(1)}=\begin{pmatrix} w_{11}^{(1)} &amp; w_{21}^{(1)} &amp;w_{31}^{(1)} \\ w_{11}^{(1)} &amp; w_{21}^{(1)} &amp;w_{31}^{(1)} \end{pmatrix} W(1)=(w11(1)w11(1)w21(1)w21(1)w31(1)w31(1))

在这里插入图片描述

图6 从输入层到第1层的信号传递

a a a表示隐藏层的加权和(加权信号和偏置的总和)
z z z表示激活函数转换后的信号
h ( ) h() h() 表示激活函数,这里使用sigmoid 函数

在这里插入图片描述

图7 第1层到第2层的信号传递

在这里插入图片描述

图8 从第2层到输出层的信号传递

这里使用identity_function()恒等函数作为输出层的激活函数,记为 σ ( ) σ() σ()

三层网络python代码实现

import numpy as np

def sigmoid(x):
	return 1 / (1 + np.exp(-x))

def identity_function(x):
	return x

def init_network():
	network = {}
	network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
	network['b1'] = np.array([0.1, 0.2, 0.3])
	network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
	network['b2'] = np.array([0.1, 0.2])
	network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
	network['b3'] = np.array([0.1, 0.2])

	return network

def forward(network, x):
	W1, W2, W3 = network['W1'], network['W2'], network['W3']
	b1, b2, b3 = network['b1'], network['b2'], network['b3']

	a1 = np.dot(x, W1) + b1
	z1 = sigmoid(a1)
	a2 = np.dot(z1, W2) + b2
	z2 = sigmoid(a2)
	a3 = np.dot(z2, W3) + b3
	y = identity_function(a3) # 或者Y = A3

	return y

network = init_network()
x = np.array([1.0, 0.5])
y = forward(network, x)
print(y) # [ 0.31682708 0.69627909]

softmax函数

公式如下:
y k = e a k ∑ i = 1 n e a i y_{k}= \frac {e^{a_{k}}} {\sum_{i=1}^{n}e^{a_{i}}} yk=i=1neaieak
softmax 函数的分子是输入信号 a k a_{k} ak的指数函数,分母是所有输入信号的指数函数的和。

机器学习的问题大致可以分为分类问题和回归问题。回归问题用恒等函数,分类问题用softmax 函数

手写数字识别

MNIST数据集是由0到9的数字图像构成的。训练图像有6万张,测试图像有1万张。

神经网络的输入层有784个神经元,输出层有10个神经元。
输入层的784这个数字来源于图像大小的28 × 28 = 784,输出层的10这个数字来源于10类别分类(数字0到9,共10类别)。
这个神经网络有2个隐藏层,第1个隐藏层有50个神经元,第2个隐藏层有100个神经元。这个50和100可以设置为任何值。

import numpy as np
import pickle
from dataset.mnist import load_mnist
from common.functions import sigmoid, softmax


def get_data():
    (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
    return x_test, t_test


def init_network():
    with open("sample_weight.pkl", 'rb') as f:
        network = pickle.load(f)
    return network


def predict(network, x):
    w1, w2, w3 = network['W1'], network['W2'], network['W3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']

    a1 = np.dot(x, w1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, w2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, w3) + b3
    y = softmax(a3)

    return y


x, t = get_data()
network = init_network()

batch_size = 100 # 批数量
accuracy_cnt = 0

for i in range(0, len(x), batch_size):
    x_batch = x[i:i+batch_size]
    y_batch = predict(network, x_batch)
    p = np.argmax(y_batch, axis=1)
    accuracy_cnt += np.sum(p == t[i:i+batch_size])

print("Accuracy:" + str(float(accuracy_cnt) / len(x))) # Accuracy:0.9352

p = np.argmax(y)
获取概率最高的元素的索引。矩阵的第0维是列方向,第1维是行方向。

>>> x = np.array([[0.1, 0.8, 0.1], [0.3, 0.1, 0.6],
... [0.2, 0.5, 0.3], [0.8, 0.1, 0.1]])
>>> y = np.argmax(x, axis=1)
>>> print(y)
[1 2 1 0]

np.sum(p == t[i:i+batch_size])

NumPy数组之间使用比较运算符(==)生成由True/False构成的布尔型数组,并计算True的个数

>>> y = np.array([1, 2, 1, 0])
>>> t = np.array([1, 2, 0, 0])
>>> print(y==t)
[True True False True]
>>> np.sum(y==t)
3

对神经网络的输入数据进行某种既定的转换称为预处理(pre-processing)。
作为对输入图像的一种预处理,我们进行了正规化(normalization)。
将数据整体的分布形状均匀化的方法,即数据白化(whitening)。
输入数据的集合称为批。通过以批为单位进行推理处理,能够实现高速的运算。

;