摘要
为获取建筑结构在地震过程中的位移响应,解决结构主动控制中的时滞问题,使用集成学习方法预测结构位移响应。提出了一套适用于结构地震动响应预测的集成学习模型,使用不同的神经网络和损失函数组合作为基学习器,在此基础上使用全连接网络构建二级学习器,得到最终预测模型。模型使用双向地震动加速度和结构位移响应作为输入,预测短期的结构位移响应;结构位移响应可实现多步预测,进行动态化输出。将该框架应用于某钢框架结构,进行数值实验,结果表明,集成后的模型预测结果要优于单一模型的预测结果,所有模型都表现出预测误差随着预测时间的增加而增加的规律。模型的预测随着地震过程在同步进行,当模型预测值第一次达到某一阈值时,则将预测结果反馈到主动控制系统中,提前进行结构振动控制,而不必等待位移传感器采集到真实的响应数据,从而减小甚至避免主动控制中时滞问题的影响。
随着经济社会发展和建筑水平的提高,各式各样的高层超高层建筑应运而生,随之而来的是建筑结构应对台风、地震等自然灾害时的严要求、高挑战。为了提高建筑结构在风荷载、地震动等外部荷载激励下的稳定性,J T P Ya
地震动过程和结构的响应可以看作随时间变化的数据序列,时序预测方法可以在历史数据的基础上预测得到未来时刻的数据,为结构响应预测和分析提供了基础。传统的时序预测方法基于数理统计理论进行,在不同领域的适用性有所欠缺,预测结果准确性不足,具有一定的局限性。随着人工智能的发展,机器学习为时间序列预测提供了新的思路,国内外专家学者利用人工神经网络建立了不同的结构地震动响应时序预测模型。R Y Zhang
针对上述问题,本文基于集成学习(Ensemble Learning),使用不同的神经网络与损失函数的组合搭建基学习器(Base Learner),使用全连接网络构建二级学习器(Meta Learner),并将其应用于某3×4跨的5层钢框架结构上进行数值实验,评价各模型的预测精度。不同于先前深度学习方法,本文的创新点包括:(1)利用双向地震动加速度和结构位移响应作为输入,提取地震动和结构自身历史信息预测短期的结构位移响应;(2)结构位移响应可实现多步预测,进行动态化输出;(3)通过集成多个预测模型,提高了结构位移响应预测的准确性。
循环神经网络(Recurrent Neural Networks,RNN)的目的在于处理具有序列特征的数据预测,它能挖掘数据中的时序信息,将过去的信息用于计算当前的输出。传统神经网络中,输入层、隐藏层和输出层之间全连接,但层内的节点是无连接的,而在RNN中,隐藏层之间的节点是有连接的。输入层的输出和上一时刻隐藏层的输出构成了隐藏层当前时刻的输入,这保证了RNN隐藏层单元对过去信息的提取。
1997年,S.Hochreiter
遗忘门使用sigmoid函数决定信息的保留比例,sigmoid函数可以将一个实数映射到(0,1)区间,其函数表达式为:
(1) |
遗忘门输出的计算式为:
(2) |
式中,为输出向量,其每个元素值都由sigmoid函数计算得到,值为1表示全部保留,为0则代表全部删除;和为遗忘门的权重和偏置项。
输入门使用sigmoid函数决定细胞状态更新信息的比例,计算式如下:
(3) |
(4) |
(5) |
式中, 为输入向量; 为待定的细胞状态; 为更新后的细胞状态; 和为输入门的权重和偏置项;tanh函数的输出值在-1和1之间。
输出门的输出及隐藏状态的计算式如下:
(6) |
(7) |
式中, 和为输出门的权重和偏置项。
卷积神经网络(Convolutional Neural Networks,CNN)被大量应用于语音识
卷积层由滤波器组成,滤波器依靠堆叠的卷积核在输入数据上滑动做卷积计算。其计算式如下:
(12) |
式中, 为输出特征;为第i行j列卷积核元素大小;为第i行j列元素大小;为偏置项。
激活层使用激活函数处理卷积层提取到的特征,激活函数一般来说具有单调、可微、连续的特征。
池化层的目的在于提取区域上的主要特征,减少参数数量,防止模型过拟合。
用机器学习的方法建立预测模型的过程离不开对损失函数的定义,其与传统优化问题的主要思想基本类似,略有不同的地方在于其涉及的模型参数往往远超传统优化问题的模型参数的数量级。但这并不影响其通过对应算法向着既定的优化目标不断更新自身模型参数,损失函数即此优化目标。本文主要采用以下4种损失函数:
平均绝对误差损失(Mean Absolute Error Loss,MAE Loss)又称L1Loss(L1范数损失)是常见的损失函数,其规范定义为:
(13) |
式中,N为样本中个体数,下同。
均方误差损失(Mean Square Error Loss,MSELoss)又称L2Loss(L2范数损失),其规范定义为:
(14) |
动态时间扭曲(Dynamic Time Warping,DTW)在构造时考虑了序列形状,相比范数损失能够更好地捕获序列特征。在DTW的基础上,M.Cuturi
集成学习是一种结合多个模型的预测结果,以得到比任何一个模型都表现更优且更鲁棒的预测结果的方
如

图1 Stacking模型框架
Fig.1 Framework of stacking
本文选择了太平洋地震工程研究中心数据库(Pacific Earthquake Engineering Research Center,PEER)中记录的地震数据,并选择场地条件相近的地震动加速度记录。每条地震动包含X、Y双向加速度时程数据,每条数据中都包含了地震发生的时间、地点、采样频率及持时等。对于原始地震动数据,本文按相同的采样频率进行记录,选择OpenSEES作为结构分析软件,以数值模拟方式获得结构响应数据,以Python中的“.npz”格式保存,方便后续模型的读取。

图2 窗口划分与补零
Fig.2 Window partition and zero-padding
异质基学习器即定义不同的时序预测神经网络模型,包括神经网络结构、选择损失函数和优化器、确定优化器参数和学习率等超参。本文选取了CNN、RNN、LSTM和GRU四种神经网络,以及L1Loss、MSELoss、SoftDTW和DILATE Loss四种损失函数,将其进行如下组合(
基学习器编号 | 神经网络 | 损失函数 |
---|---|---|
1 | CNN | L1Loss |
2 | RNN | L1Loss |
3 | LSTM | L1Loss |
4 | GRU | L1Loss |
5 | GRU | MSELoss |
6 | GRU | SoftDTW |
7 | GRU | DILATE Loss |
每个基学习器都选取Adam优化器,初始学习率设置为0.001,使用随机梯度下降动态调整学习率。
二级学习器采用全连接神经网络,线性层神经元数目设置为128,损失函数使用L1Loss,学习率使用随机梯度下降动态调整,初始值设为0.001,激活函数使用ReLU,函数计算式为:
(15) |
训练代数epoch均设置为300,每批训练样本大小为256。
本文采用平均绝对误差即L1Loss评价模型的预测效果,并将不同的基学习器的预测结果与集成学习后的模型预测结果进行比较。
为进一步验证本文所提出的模型的有效性和准确性,本文选取一3×4跨的5层钢框架结构进行数值实验。
本文在PEER记录的地震数据中选择场地条件相近的地震加速度记录,筛选出235条地震动数据,随机选取其中230条作为训练集和验证集,其余5条作为测试集。通过预处理将时间点和记录绑定生成完整的加速度时间序列。在OpenSEES中构建模型,输入地震波后得到X,Y,Z三个方向的位移时程响应。此框架结构的梁柱均采用工字钢截面,软件中使用英制单位(in),转换为国际单位制(mm)后构件尺寸见
构件 | 截面高度 | 截面宽度 | 腹板厚 | 翼缘厚 |
---|---|---|---|---|
梁 | 617.47 | 230.25 | 13.08 | 22.23 |
柱 | 464.82 | 459.74 | 28.70 | 28.70 |
当前抗震预测领域的研究中,大多采取单一的输入模式,即对地震加速度和结构位移响应采用非此即彼的输入方式。然而在地震过程中,结构的响应不仅与地震加速度相关,还与结构本身的参数有关。本文采取了使用地震加速度和结构响应同时输入的方式来预测结构响应,
预测窗口 | 地震加速度 | 结构位移响应 | 加速度+位移 | 最大真实位移 |
---|---|---|---|---|
(150,200) | 0.262 | 0.151 | 0.061 | 0.917 |
(650,700) | 30.099 | 0.908 | 0.857 | 5.553 |
(1150,1200) | 39.561 | 0.820 | 1.291 | 34.125 |
(1650,1700) | 7.348 | 1.962 | 1.532 | 17.924 |
(2150,2200) | 52.744 | 0.678 | 0.563 | 42.909 |
(2650,2700) | 16.631 | 1.422 | 0.433 | 34.897 |
(3150,3200) | 35.552 | 2.148 | 0.341 | 46.447 |
(3650,3700) | 27.471 | 0.929 | 0.480 | 46.975 |
(4150,4200) | 11.636 | 0.341 | 0.302 | 26.635 |
根据
在进行结构响应预测时,输入窗口的选择影响着数据集划分的大小和模型训练的效果。一方面要求用尽可能少的数据获得尽可能多的准确的预测信息,另一方面过小的输入窗口导致了数据信息的丢失和更大的训练样本,因此需要寻找一个大小合适的输入窗口来平衡两方面的考虑。为此,本文使用GRU+L1Loss组合,对结构在5条不同的地震波下的响应进行预测,
地震动 | 10 | 25 | 50 | 75 | 100 | 150 | 200 |
---|---|---|---|---|---|---|---|
RSN70 | 0.020 | 0.018 | 0.026 | 0.023 | 0.020 | 0.028 | 0.027 |
RSN615 | 0.015 | 0.015 | 0.013 | 0.014 | 0.017 | 0.012 | 0.013 |
RSN986 | 0.014 | 0.015 | 0.013 | 0.013 | 0.016 | 0.011 | 0.013 |
RSN3503 | 0.007 | 0.008 | 0.007 | 0.007 | 0.008 | 0.006 | 0.007 |
RSN4013 | 0.013 | 0.014 | 0.012 | 0.013 | 0.015 | 0.011 | 0.012 |
由
本文将定义好的7个基学习器分为两组,第一组为编号1到4的基学习器,它们采用不同的神经网络,但采用了相同的损失函数L1Loss,第二组为编号4到7的基学习器,它们采用了相同的神经网络GRU,但损失函数不同。
模型以150个时间步的已知双向地震波与结构响应输入来预测未来50个时间步的结构双向响应,单个时间步长为0.02 s。

图3 位移预测结果与真实值比较
Fig.3 Comparison between predicted and actual values
预测窗口 | 平均绝对误差 | 真实位移最大值 | ||
---|---|---|---|---|
X方向 | Y方向 | X方向 | Y方向 | |
(150,200) | 0.048 | 0.078 | 0.917 | 1.368 |
(650,700) | 0.514 | 0.326 | 5.553 | 3.315 |
(1150,1200) | 0.809 | 2.177 | 34.125 | 64.516 |
(1650,1700) | 0.823 | 0.421 | 17.924 | 17.687 |
(2150,2200) | 0.341 | 0.529 | 42.909 | 33.979 |
(2650,2700) | 0.409 | 0.293 | 34.897 | 40.409 |
(3150,3200) | 0.305 | 0.315 | 46.447 | 30.388 |
(3650,3700) | 0.608 | 0.496 | 46.975 | 13.874 |
(4150,4200) | 0.353 | 0.483 | 26.635 | 6.050 |
随着地震发展,预测窗口逐步向后推移,每个时刻的位移相当于被预测了50次,依次位于预测窗口内的第0到第49步,将所有预测窗口内的第i步预测结果提取并组合,可得到模型在预测未来50个时刻的位移时,针对每一时刻的预测结果。
时间步 | CNN | GRU | LSTM | RNN | Stacking |
---|---|---|---|---|---|
0 | 0.581 | 0.273 | 0.411 | 0.563 | 0.243 |
5 | 0.439 | 0.122 | 0.165 | 0.621 | 0.085 |
10 | 0.317 | 0.092 | 0.105 | 0.964 | 0.072 |
15 | 0.348 | 0.124 | 0.123 | 1.372 | 0.081 |
20 | 0.477 | 0.162 | 0.150 | 1.690 | 0.123 |
25 | 0.597 | 0.253 | 0.205 | 2.028 | 0.186 |
30 | 0.727 | 0.323 | 0.282 | 2.279 | 0.262 |
35 | 0.903 | 0.400 | 0.382 | 2.591 | 0.358 |
40 | 1.020 | 0.523 | 0.505 | 2.813 | 0.480 |
45 | 1.289 | 0.713 | 0.659 | 3.340 | 0.642 |
49 | 1.531 | 0.911 | 0.832 | 3.548 | 0.821 |
注: 表中数据来自X方向的预测结果,Y方向呈现出相同的规律,不再赘述
使用第二组基学习器(编号4到7)对所选用的钢框架结构同样在地震波RSN4013下进行预测,
预测窗口 | 平均绝对误差 | 真实位移最大值 | ||
---|---|---|---|---|
X方向 | Y方向 | X方向 | Y方向 | |
(150,200) | 0.045 | 0.119 | 0.917 | 1.368 |
(650,700) | 0.604 | 0.304 | 5.553 | 3.315 |
(1150,1200) | 0.644 | 1.775 | 34.125 | 64.516 |
(1650,1700) | 1.141 | 0.200 | 17.924 | 17.687 |
(2150,2200) | 0.269 | 0.372 | 42.909 | 33.979 |
(2650,2700) | 0.442 | 0.479 | 34.897 | 40.409 |
(3150,3200) | 0.272 | 0.168 | 46.447 | 30.388 |
(3650,3700) | 0.658 | 0.387 | 46.975 | 13.874 |
(4150,4200) | 0.387 | 0.512 | 26.635 | 6.050 |
由
时间步 | DILATELoss | L1Loss | MSELoss | SoftDTW | Stacking | 相比最优单一模型 |
---|---|---|---|---|---|---|
0 | 0.404 | 0.273 | 0.360 | 0.486 | 0.152 | 44.32% |
5 | 0.278 | 0.122 | 0.185 | 0.232 | 0.066 | 45.90% |
10 | 0.184 | 0.092 | 0.130 | 0.326 | 0.055 | 40.22% |
15 | 0.199 | 0.124 | 0.143 | 0.499 | 0.062 | 50.00% |
20 | 0.198 | 0.162 | 0.189 | 0.636 | 0.082 | 49.38% |
25 | 0.256 | 0.253 | 0.249 | 0.767 | 0.110 | 56.52% |
30 | 0.358 | 0.323 | 0.323 | 0.880 | 0.143 | 55.73% |
35 | 0.457 | 0.400 | 0.420 | 0.970 | 0.181 | 54.75% |
40 | 0.587 | 0.523 | 0.549 | 1.046 | 0.228 | 56.41% |
45 | 0.757 | 0.713 | 0.727 | 1.081 | 0.297 | 58.35% |
49 | 0.956 | 0.911 | 0.931 | 0.984 | 0.380 | 58.29% |
注: 表中数据来自X方向的预测结果,Y方向呈现出相同的规律,不再赘述
表中数据表明:(1)在这四种使用了相同神经网络GRU而损失函数不同的基学习器中,仍然是GRU+L1Loss表现得最好,而集成后的模型预测性能依然高于单一模型的预测性能,并且基于第二套集成学习模型预测表现要优于第一套集成学习模型的预测表现;(2)集成后的模型能大大提高单一模型预测的准确度,并且在全时期预测中表现出明显的稳定性,即在预测未来较远时间步的响应时,其误差值仍保持在较小的范围;相比较最优的单一模型GRU+L1Loss,集成模型在平均绝对误差上减小了40.22%~58.35%。
研究首次利用Stacking集成算法将GRU、LSTM、CNN、RNN神经网络和L1 Loss、MSE loss、DILATELoss、SoftDTW损失函数结合,应用到结构抗震响应预测上,验证了其在提升预测精度上的有效性和稳定性。模型的预测随着地震过程在同步进行,当模型预测值第一次达到某一阈值时,则将预测结果反馈到主动控制系统中,提前进行结构振动控制,而不必等待位移传感器采集到真实的响应数据,为解决主动控制中的时滞问题提供了解决思路。
同时,本文所采取的Stacking集成方式搭建了一个使用不同机器学习模型进行结构地震响应预测的框架,其基学习器并不局限于文中所使用的几种,当出现性能更好的新网络模型时,可以方便地更改基学习器的组成,产生新的集成模型,达到模型优化的效果。
在将其应用到某钢框架结构中,对比了不同模型的预测效果后得出以下结论:
(1)本文所使用的数据窗口划分方式以及双向地震波和结构位移输入,可有效预测结构在不同方向上的多步位移响应,提高了预测的准确度。
(2)通过Stacking集成学习,可有效提高单一模型对未来多步预测的稳定性。单一模型在进行超短期和长期预测时往往存在预测性能不稳定的情况,通过集成的方式可以提高模型整体的泛化能力,减小全时期预测的误差。
(3)本文提出的模型可以进行未来多时刻的结构位移响应预测,并能够保证较高的精确度。
(4)在本文的数据集和结构模型下,分别使用RNN、LSTM、GRU、CNN与相同的损失函数L1Loss搭建模型进行预测时,使用GRU网络的模型预测结果的平均绝对误差最小;在分别使用L1Loss、MSELoss、DILATELoss、SoftDTW与GRU网络搭建模型进行预测时,使用L1Loss的模型预测结果的平均绝对误差最小,这表明单一模型GRU+L1Loss的组合更适应此场景下的结构地震响应多步预测问题。
后续的工作中,还可以进行以下尝试:
(1)使用更多不同的一级学习器,研究能否进一步提高预测的准确度。
(2)研究预测模型的损失出现极小值的原因,以及其中是否包含具体的物理意义。
(3)具体实施主动控制的全过程,实现地震发生时进行预测预警并提前实施主动控制的流程。
参考文献
Yao J T P. Concept of structural control[J]. Asce Journal of the Structural Division, 1972,98(7):1567-1574. [百度学术]
王伟.土木工程结构振动控制技术的发展[J].居业,2022(3):10-12. [百度学术]
Wang W. Development of vibration control technology for civil engineering structures [J]. Residential Engineering,2022(3):10-12. (in Chinese) [百度学术]
邱敏,张学文,陆中玏,等.土木工程结构振动控制的研究现状与展望[J].安全与环境工程,2013,20(3):14-18. [百度学术]
Qiu M, Zhang X W, Lu Z L, et al. Research status and prospect of structural vibration control in civil engineering [J]. Safety and Environmental Engineering,2013,20(3):14-18. (in Chinese) [百度学术]
郑晓君. 结构主动控制系统时滞补偿及混合试验研究[D].广州:广州大学,2022. [百度学术]
Zheng X J. Research on delay compensation and hybrid experiment of structural active control system [D]. Guangzhou :Guangzhou University,2022. (in Chinese) [百度学术]
Zou L H, Dai S L, Butterworth J, et al. Grey forecasting model for active vibration control systems[J]. Journal of Sound and Vibration, 2009, 322(4/5):690-706. [百度学术]
Zhang R Y, Liu Y, Sun H. Physics-informed multi-LSTM networks for metamodeling of nonlinear structures[J]. Computer Methods in Applied Mechanics and Engineering, 2020,369:113226. [百度学术]
许泽坤,陈隽.非线性结构地震响应的神经网络算法[J].工程力学,2021,38(9):133-145. [百度学术]
Xu Z K, Chen C. Neural network algorithm for seismic response of nonlinear structures [J]. Engineering Mechanics,2021,38(9):133-145. (in Chinese) [百度学术]
杨迪雄,杨开胜,郭贵强.强震作用下高层结构地震响应时程的多步预测[J].土木工程学报,2016,49(增1):25-31. [百度学术]
Yang D X, Yang K S, Guo G Q. Multi-step prediction of seismic response time history of high-rise structures under strong earthquakes [J]. Chinese Journal of Civil Engineering,2016,49(Sup1):25-31. (in Chinese) [百度学术]
汪鑫. 基于优化神经网络的多层钢筋混凝土结构地震响应预测[D].哈尔滨:哈尔滨工业大学,2020. [百度学术]
Wang X. Seismic response prediction of multi-storey reinforced concrete structures based on optimized neural network [D]. Harbin :Harbin Institute of Technology,2020. (in Chinese) [百度学术]
Hochreiter S, Schmidhuber J. Long short-term memory[J]. Neural Computation,1997,9(8):1735-1780. [百度学术]
Chung J, Gulcehre C, Cho K ,et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[J].Eprint Arxiv ,2014. DOI:10.48550/arXiv.1412.3555. [百度学术]
Waibel A, Hanazawa T, Hinton G E, et al. Phoneme recognition using time-delay neural networks[J]. Readings in Speech Recognition, 1990, 1(3):393-404. [百度学术]
Lecun Y, Bottou L. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324. [百度学术]
Lawrence S, Giles C L, Tsoi A C, et al. Face recognition: a convolutional neural network approach[J]. IEEE Transactions on Neural Networks, 1997, 8(1):98-113. [百度学术]
李炳臻,刘克,顾佼佼,等.卷积神经网络研究综述[J].计算机时代,2021(4):8-12,17. [百度学术]
Li B Z, Liu K, Gu J J, et al. Review of convolutional neural networks [J]. Computer Age,2021(4):8-12,17. (in Chinese) [百度学术]
Cuturi M, Blondel M. Soft-DTW: a differentiable loss function for time-series[C]∥34th International Conference on Machine Learning, ICML. Sydney: International Machine Learning Society(IMLS),2017: 1483-1505. [百度学术]
Le Guen V, Thome N. Shape and time distortion loss for training deep time series forecasting models[C]∥Advances in Neural Information Processing Systems. [S.l.]: Neural Information Processing Systems Foundation, 2019:32. [百度学术]
Wang K, Liu X, Zhao J, et al. Application research of ensemble learning frameworks[C]∥Proceedings of 2020 Chinese Automation Congress, CAC 2020, art. no. 9326882. Shanghai: Institute of Electrical and Electronics Engineers(IEEE),2020:5767-5772. [百度学术]