Bootstrap

声子晶体和超材料中的机器学习和深度学习—2022年综述(2)

卷积神经网络CNN是用于设计人工材料的另一种人工神经网络(ANN)。生成的数据被传递到输入层,输入层连接到隐藏层,隐藏层也称为卷积层、池化层、全连接层和归一化层。如图二。Donda等人将CNN应用于设计超薄声学吸收超表面以实现声音吸收。通过应用卷积过程,从输入超表面数据中提取特征,并将其传递到池化层进行特征选择和过滤。通过重复这个过程,输出样本由全连接层的神经元获得

无监督学习尝试找到样本集的映射/结构或分布规律。无监督学习的两种著名方法包括聚类和数据降维。聚类是将输入数据分成不同的类别,且没有训练过程。通过线性或非线性降维技术(如主成分分析(PCA)和流形学习),可以将高维数据转换为低维空间

生成对抗网络无监督学习网络。这种神经网络有两个组成部分,即生成器网络和判别器网络,见图3。生成器通常由多层感知机(MLP)构建在训练阶段,这两个网络的性能是并行优化的,当判别器的数据分类准确率达到0.5时,该过程停止模型已经达到了满意的平衡。Gurbuz等人应用条件GAN来优化由固体和流体域组成的AM阵列声学超材料阵列的传输损耗。将输入样本及其声传输损耗特性作为输入送入生成器。训练后,网络能够预测出针对目标传输损耗频率的AM单元结构

自编码器AE是一种深度神经网络(DNN)结构,它利用神经网络的强大非线性处理能力从输入数据中提取特征,并最小化数据维度。它由两部分组成,称为编码器和解码器,见图4。通过比较输出向量和原始输入向量来计算重建误差。这种重建误差也被称为成本函数,可以通过应用反向传播算法来最小化。在光子晶体(PnC)研究的视角下,Li等人应用了这种方法来优化带隙(BGs)的拓扑结构并放大其宽度

串联神经网络(TNN)最近被应用于人工材料的设计中。TNN也由两部分组成,即与预训练前向网络相连的逆网络,如图5。在这种方法中,首先,前向网络被设计为一个预训练网络,通过提供输入数据并获取输出响应。前向网络遵循监督学习的原则。由于每种结构都对应一个单一的响应,这有时被称为一对一问题。在训练TNN时,前向网络的权重和偏置保持不变,通过调整逆网络的权重和偏置来减少成本函数。这可以通过使用一些自适应优化算法来实现,如Adam、RMSProp、AdGrad等。预测响应与目标响应之间的差异定义了成本函数。在这种类型的网络中,所需的响应作为输入,潜在的设计结构从中间层获得。在网络训练过程中,输入响应(预训练网络的输出响应)也用作标签,因此这一步被视为无监督训练。与自编码器(AE)相比,TNN的训练更为繁琐,但它可以在不进行特征提取的情况下将结构与响应相关联。事实上,如果想训练输入图像,可以在不改变基本原则的情况下,将自编码器(AE)或串联神经网络(TNN)替换为卷积神经网络(CNN)。最近,He等人报告了一个TNN的很好示例,用于分析和设计拓扑声子梁

;