Bootstrap

2 18 图像技术识别与应用

今天内容主要为机器学习的几个关键组件、不同类型的机器学习任务、深度学习的发展及其成功案例,以及图灵测试和深度学习框架PyTorch的介绍。以下是具体总结:

 

 机器学习的关键组件

1. 数据:数据集由样本组成,每个样本由一组特征表示。图像数据中,每张照片是一个样本,特征由像素数值的有序列表表示。

2. 模型:调整参数后的程序称为模型,深度学习模型由神经网络组成。

3. 目标函数:用于量化模型的有效性,通常通过最小化损失函数来优化模型参数。

4. 优化算法:用于搜索最佳参数以最小化损失函数,常用的方法是梯度下降。

 

一,机器学习的类型

1. 监督学习:在给定输入特征的情况下预测标签,包括回归(预测数值)和分类(预测类别)任务。

2. 无监督学习:数据中不含标签,包括聚类和主成分分析等问题。

3. 强化学习:智能体与环境交互,通过奖励机制学习最佳策略。

 

二,深度学习的发展

- **21世纪的推动因素**:高速互联网、智能手机摄像头、视频游戏、照片共享网站等填满了数据池。廉价且高质量的传感器、数据存储和计算资源(特别是GPU)的普及,使得大规模算力变得容易获得。

 

三,深度学习的成功案例

-图像分类:深度学习在图像分类任务中表现出色。

- 目标检测和分割:用于识别和定位图像中的多个对象。

- 人脸合成:生成逼真的人脸图像。

- 机器翻译:自动翻译不同语言的文本。

- 图像描述:生成描述图像内容的文本。

- 自然语言文本合成:生成自然语言文本。

 

四, 图灵测试

- 定义:由艾伦·图灵提出,用于判断机器是否具有人类智能。测试中,如果机器能让人类测试者在相当长时间内无法区分其与人类,则认为机器具有智能。

- 电影《模仿游戏》:改编自艾伦·图灵的传记,讲述了他破译德国密码系统“英格玛”的故事。

 

五,深度学习框架PyTorch

- 介绍:由Meta AI(Facebook)开发,基于Python的深度学习库,广泛应用于学术界和工业界。PyTorch的API设计简洁、优雅且易懂。

 

六,线性回归

1. 基本概念:

   - 线性回归用于估计一个连续值,例如房价预测。

   - 线性回归可以看作是神经网络的基础,通过调整参数(权重和偏置)来最小化损失函数。

 

2. 优化算法:

   -梯度下降法:通过计算损失函数的梯度,沿着梯度方向更新参数,逐步逼近损失函数的最小值。

   - 随机梯度下降(SGD):通过不断在损失函数递减的方向上更新参数来降低误差。

   - 小批量随机梯度下降:结合了梯度下降和随机梯度下降的优点,选择合适的批量大小和学习率,既能充分利用计算资源,又能避免浪费。

 

3. 超参数:

   - 学习率:控制参数更新的步长,学习率太小会导致收敛慢,太大可能导致无法收敛。

   - 批量大小:批量值太小难以充分利用计算资源,太大则可能浪费计算资源。

 

七,Softmax回归

1. 基本概念:

   - Softmax回归用于多类分类问题,例如手写数字识别(MNIST)或自然对象分类(ImageNet)。

   - 与回归不同,分类问题通常有多个输出,每个输出表示预测为某一类的置信度。

 

2. Softmax运算:

   - Softmax运算将输出转换为概率分布,确保输出的值非负且和为1。

   - 例如,输入 `[1, -1, 2]` 经过Softmax运算后得到 `[0.26, 0.04, 0.7]`,表示每个类别的预测概率。

 

3. 损失函数:

   - **交叉熵损失**:通常用于比较概率分布,适用于分类问题。

   - 其他损失函数包括平方损失(L2损失)、L1损失和Huber损失。

 

 八,从回归到多类分类

- 回归问题输出单个连续值,而分类问题输出多个类别的置信度。

- 对于分类问题,输出层的神经元数量通常设定为类别的数量。例如,10类分类问题(如手写数字识别)的输出层神经元数量为10个。

 

 总结

- 梯度下降是深度学习中常用的优化算法,小批量随机梯度下降是默认的求解算法。

- Softmax回归**是多类分类的基础模型,通过Softmax运算得到每个类别的预测概率,并使用交叉熵损失函数进行优化。

- 线性回归和Softmax回归是机器学习和神经网络中的重要组成部分,分别用于回归和分类任务。

;