kingzone 2020-06-09
1.简述人工智能、机器学习和深度学习三者的联系与区别。
人工智能最大,根本在于智能;机器学习次之,机器学习是实现人工智能的一种方法;深度学习最后,但深度学习是实现机器学习的一种核心技术。
2. 全连接神经网络与卷积神经网络的联系与区别。
卷积神经网络中的每一个节点就是一个神经元。在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一个三维矩阵。除了结构相似,卷积神经网络的输入输出以及训练的流程和全连接神经网络也基本一致。全连接神经网络和卷积神经网络的唯一区别就是神经网络相邻两层的连接方式。
3.理解卷积计算。
以digit0为例,进行手工演算。
卷积核:
1 | 0 | -1 |
1 | 0 | -1 |
1 | 0 | -1 |
选择第一个进行卷积操作:得到6x6的矩阵:
from sklearn.datasets import load_digits #小数据集8*8
digits = load_digits()
0 | 0 | 5 | 13 | 9 | 1 | 0 | 0 |
0 | 0 | 13 | 15 | 10 | 15 | 5 | 0 |
0 | 3 | 15 | 2 | 0 | 11 | 8 | 0 |
0 | 4 | 12 | 0 | 0 | 8 | 8 | 0 |
0 | 5 | 8 | 0 | 0 | 9 | 8 | 0 |
0 | 4 | 11 | 0 | 1 | 12 | 7 | 0 |
0 | 2 | 14 | 5 | 10 | 12 | 0 | 0 |
0 | 0 | 6 | 13 | 10 | 0 | 0 | 0 |
4.理解卷积如何提取图像特征。
读取一个图像;
以下矩阵为卷积核进行卷积操作;
显示卷积之后的图像,观察提取到什么特征。
1 | 0 | -1 |
1 | 0 | -1 |
1 | 0 | -1 |
1 | 1 | 1 |
0 | 0 | 0 |
-1 | -1 | -1 |
-1 | -1 | -1 |
-1 | 8 | -1 |
-1 | -1 | -1 |
卷积API
scipy.signal.convolve2d
tf.keras.layers.Conv2D
from PIL import Image import matplotlib.pyplot as plt import numpy as np from scipy.signal import convolve2d I = Image.open(r‘D:\Chrome浏览器下载\90905.jpg‘) L = I.convert(‘L‘) ghost = np.array(I) ghosts = np.array(L) k1 = np.array([[1,0,-1],[1,0,-1],[1,0,-1]]) #垂直边缘 k2 = np.array([[1,1,1],[0,0,0],[-1,-1,-1]]) #水平边缘 k3 = np.array([[-1,-1,-1],[-1,8,-1],[-1,-1,-1]]) ghost1 = convolve2d(ghosts,k1,boundary=‘symm‘,mode=‘same‘) ghost2 = convolve2d(ghosts,k2,boundary=‘symm‘,mode=‘same‘) ghost3 = convolve2d(ghosts,k3,boundary=‘symm‘,mode=‘same‘) plt.matshow(ghost) plt.matshow(ghost1) # plt.matshow(ghost0) plt.matshow(ghost2) plt.matshow(ghost3) plt.show()
原图:
提取垂直边缘的图像:
提取水平边缘的图像:
提取边缘特征图像:
5. 安装Tensorflow,keras
参考:https://blog.csdn.net/u011119817/article/details/88309256
6. 设计手写数字识别模型结构,注意数据维度的变化。
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten, Conv2D, MaxPool2D
model = tf.keras.Sequential()
model.add(Conv2D(…))
model.add(MaxPool2D(…))
...
#可以上传手动演算的每层数据结构的变化过程。model.summary()
参考:
https://www.jianshu.com/p/afe485aa08ce
https://blog.csdn.net/junjun150013652/article/details/82217571
源代码:
# 导入相关包 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPool2D # 建立模型 model = Sequential() # 一层卷积 model.add(Conv2D(filters=16,kernel_size=(5, 5),padding=‘same‘,input_shape=(28, 28, 1),activation=‘relu‘)) # 池化层1 model.add(MaxPool2D(pool_size=(2, 2))) model.add(Dropout(0.25)) # 二层卷积 model.add(Conv2D(filters=32,kernel_size=(5, 5),padding=‘same‘,activation=‘relu‘)) # 池化层2 model.add(MaxPool2D(pool_size=(2, 2))) model.add(Dropout(0.25)) # 三层卷积 model.add(Conv2D(filters=64,kernel_size=(5, 5),padding=‘same‘,activation=‘relu‘)) model.add(Flatten()) # 平坦层 model.add(Dense(128, activation=‘relu‘)) # 全连接层 model.add(Dropout(0.25)) model.add(Dense(10, activation=‘softmax‘)) # 激活函数 ##显示每层数据的结构变化过程 print(‘每层数据的结构变化过程:‘) model.summary()