网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于集成学习的结构地震动响应预测方法研究  PDF

  • 安超 1,2
  • 史健勇 1,2
  • 潘泽宇 1,2
  • 姜柳 1,2
  • 王佳亮 3
1. 上海交通大学船舶海洋与建筑工程学院, 上海 200240; 2. 上海市公共建筑和基础设施数字化运维重点实验室,上海 200240; 3. 上海市城市建设设计研究总院(集团)有限公司,上海 200001

中图分类号: TU17

最近更新:2023-06-27

DOI:10.13409/j.cnki.jdpme.20221125002

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

为获取建筑结构在地震过程中的位移响应,解决结构主动控制中的时滞问题,使用集成学习方法预测结构位移响应。提出了一套适用于结构地震动响应预测的集成学习模型,使用不同的神经网络和损失函数组合作为基学习器,在此基础上使用全连接网络构建二级学习器,得到最终预测模型。模型使用双向地震动加速度和结构位移响应作为输入,预测短期的结构位移响应;结构位移响应可实现多步预测,进行动态化输出。将该框架应用于某钢框架结构,进行数值实验,结果表明,集成后的模型预测结果要优于单一模型的预测结果,所有模型都表现出预测误差随着预测时间的增加而增加的规律。模型的预测随着地震过程在同步进行,当模型预测值第一次达到某一阈值时,则将预测结果反馈到主动控制系统中,提前进行结构振动控制,而不必等待位移传感器采集到真实的响应数据,从而减小甚至避免主动控制中时滞问题的影响。

0 引 言

随着经济社会发展和建筑水平的提高,各式各样的高层超高层建筑应运而生,随之而来的是建筑结构应对台风、地震等自然灾害时的严要求、高挑战。为了提高建筑结构在风荷载、地震动等外部荷载激励下的稳定性,J T P Yao

1于1972年将结构控制理论引入土木工程。经过多年发展,目前结构振动控制方法按控制方式可分为主动控制、被动控制和混合控2。其中,主动控制是一套具有完整反馈回路的控制系统,由传感器、控制器和驱动器组成。传感器负责捕捉结构振动的外部激励和结构自身的响应信息,控制器负责处理这些数据,并发出指令使驱动器产生施加于建筑结构的控制力,以达到减小结构振动的目3。然而在实际应用中,主动控制系统内的时滞问题不可忽视。时滞问题是指在工程中,控制系统的参数设计、信号传递以及环境等因素造成的系统指令和实际反馈之间的滞后现象,它引起的控制力不同步将导致控制性能下4。预测控制方法是缓解时滞影响的有效方法之5,实现预测控制方法的关键是快速、准确地预测结构地震动响应。

地震动过程和结构的响应可以看作随时间变化的数据序列,时序预测方法可以在历史数据的基础上预测得到未来时刻的数据,为结构响应预测和分析提供了基础。传统的时序预测方法基于数理统计理论进行,在不同领域的适用性有所欠缺,预测结果准确性不足,具有一定的局限性。随着人工智能的发展,机器学习为时间序列预测提供了新的思路,国内外专家学者利用人工神经网络建立了不同的结构地震动响应时序预测模型。R Y Zhang

6提出两种基于长短期记忆神经网络(Long Short‑term Memory Networks,LSTM)的预测方案,使用K均值聚类方法处理地震波输入,用以提高LSTM预测模型的预测精度和鲁棒性。许泽坤7提出一种采用单向多层堆叠式LSTM架构,并借助滑动时间窗实现递推计算的预测方法。该方法改进了模型预测效果的评价指标,避免了传统评价指标的相位敏感问题。然而,此研究中的模型仅是地震波输入与位移响应时程的映射,且只能预测未来一个时刻的位移响应,未考虑双向地震波的影响。杨迪雄8提出了一种结合经验模态分解与极限学习机的时间序列多步预测方法,对近断层强震作用下弹塑性高层框架结构的顶层加速度和位移响应时程进行了多步预测。该方法利用经验模态分解技术将高层结构非线性、非平稳地震响应分解为一系列具有不同特征尺度的固有模态函数序列。利用极限学习机分别对各子序列进行多步预测并叠加得到最终的预测值。汪9将注意力机制(Attention Mechanism,AM)引入LSTM,提出基于响应时程的LSTM‑AM‑Stack模型,并与基于地震信息的静态极值指标预测模型(Extreme Gradient Boosting,XGBoost)对比,结果表明前者的预测精度要优于后者。综上所述,尽管时序预测模型多种多样,但目前不存在一个公认的、普适的最优预测模型以实现所有时序预测任务,其主要原因在于,不同的时序预测任务中相应的时间序列特征,环境影响因素等都有所不同。因此,只能通过多模型的比较发现与特定问题结合较为优秀的模型作为最终的模型选择。

针对上述问题,本文基于集成学习(Ensemble Learning),使用不同的神经网络与损失函数的组合搭建基学习器(Base Learner),使用全连接网络构建二级学习器(Meta Learner),并将其应用于某3×4跨的5层钢框架结构上进行数值实验,评价各模型的预测精度。不同于先前深度学习方法,本文的创新点包括:(1)利用双向地震动加速度和结构位移响应作为输入,提取地震动和结构自身历史信息预测短期的结构位移响应;(2)结构位移响应可实现多步预测,进行动态化输出;(3)通过集成多个预测模型,提高了结构位移响应预测的准确性。

1 理论方法

1.1 循环神经网络

循环神经网络(Recurrent Neural Networks,RNN)的目的在于处理具有序列特征的数据预测,它能挖掘数据中的时序信息,将过去的信息用于计算当前的输出。传统神经网络中,输入层、隐藏层和输出层之间全连接,但层内的节点是无连接的,而在RNN中,隐藏层之间的节点是有连接的。输入层的输出xt和上一时刻隐藏层的输出ht-1构成了隐藏层当前时刻的输入,这保证了RNN隐藏层单元对过去信息的提取。

1.1.1 长短期记忆神经网络

1997年,S.Hochreiter

10在RNN的基础上提出LSTM。LSTM的输入输出方式与RNN相同,不同之处在于LSTM的神经元中引入了“门”的概念来控制信息的流动。

遗忘门使用sigmoid函数决定信息的保留比例,sigmoid函数可以将一个实数映射到(0,1)区间,其函数表达式为:

σ(x)=11+e-x (1)

遗忘门输出的计算式为:

ft=σ(Wf[ht-1,xt]+bf) (2)

式中,ft为输出向量,其每个元素值都由sigmoid函数计算得到,值为1表示全部保留,为0则代表全部删除;Wfbf为遗忘门的权重和偏置项。

输入门使用sigmoid函数决定细胞状态更新信息的比例,计算式如下:

it=σ(Wi[ht-1,xt]+bi) (3)
C˜t=tanh(WC[ht-1,xt]+bC) (4)
Ct=ft*Ct-1+it*C˜t (5)

式中, it为输入向量; C˜t为待定的细胞状态; Ct为更新后的细胞状态; WCbC为输入门的权重和偏置项;tanh函数的输出值在-1和1之间。

输出门的输出ot及隐藏状态的计算式如下:

ot=σ(Wo[ht-1,xt]+bo) (6)
ht=ot*tanh(Ct) (7)

式中, Wobo为输出门的权重和偏置项。

1.1.2 门控循环单元神经网络

门控循环单元(Gate Recurrent Unit,GRU)是RNN的另一变

11

GRU使用重置门和更新门处理信息,重置门作用于前一时刻的隐藏状态,决定过去信息的遗忘程度,更新门作用于当前时刻和上一时刻的隐藏单元,决定当前时刻有多少信息需要向前传递。计算式分别为:

rt=σ(Wr[ht-1,xt]) (8)
zt=σ(Wz[ht-1,xt]) (9)

式中, rtzt分别为重置门和更新门的输出;WrWz为权重参数。

隐藏层的输出计算式为:

h˜t=tanh(Wh˜[rt*ht-1,xt]) (10)
ht=(1-zt)*ht-1+zt*h˜t (11)

1.2 卷积神经网络

卷积神经网络(Convolutional Neural Networks,CNN)被大量应用于语音识

12、文档阅13和图像识14等。相比循环神经网络,CNN的核心结构是卷积层、激活层和池化层,且可以叠加使15

卷积层由滤波器组成,滤波器依靠堆叠的卷积核在输入数据上滑动做卷积计算。其计算式如下:

f(x)=i,jnθi,j×xi,j+b (12)

式中, f(x)为输出特征;θi,j为第ij列卷积核元素大小;xi,j为第ij列元素大小;b为偏置项。

激活层使用激活函数处理卷积层提取到的特征,激活函数一般来说具有单调、可微、连续的特征。

池化层的目的在于提取区域上的主要特征,减少参数数量,防止模型过拟合。

1.3 损失函数

用机器学习的方法建立预测模型的过程离不开对损失函数的定义,其与传统优化问题的主要思想基本类似,略有不同的地方在于其涉及的模型参数往往远超传统优化问题的模型参数的数量级。但这并不影响其通过对应算法向着既定的优化目标不断更新自身模型参数,损失函数即此优化目标。本文主要采用以下4种损失函数:

平均绝对误差损失(Mean Absolute Error Loss,MAE Loss)又称L1Loss(L1范数损失)是常见的损失函数,其规范定义为:

l(x,y)=L=1Nn=0N-1xn-yn (13)

式中,N为样本中个体数,下同。

均方误差损失(Mean Square Error Loss,MSELoss)又称L2Loss(L2范数损失),其规范定义为:

l(x,y)=L=1Nn=0N-1(xn-yn)2 (14)

动态时间扭曲(Dynamic Time Warping,DTW)在构造时考虑了序列形状,相比范数损失能够更好地捕获序列特征。在DTW的基础上,M.Cuturi

16利用其平滑公式计算所有对齐成本的软最小值,提出的一种新的损失函数SoftDTW,V.Le Guen17增加了时序方面的损失,提出形状和时间失真损失(Shape and Time Distortion Loss,DILATE Loss),使其具备形状和时序两方面的损失,以实现多目标优化。

1.4 集成学习

集成学习是一种结合多个模型的预测结果,以得到比任何一个模型都表现更优且更鲁棒的预测结果的方

18。集成学习主要可以分为三类:Boosting、Bagging和Stacking。Boosting和Bagging通常都是使用同一种基学习器,因此一般称之为同质集成方法。Stacking通常都是基于多个不同的基学习器做的集成,因此被称为异质集成方法。

图1所示,Stacking算法首先构建多个不同类型的基学习器,并在初始训练集上进行训练,由此生成一个新的样本集来训练二级学习器。每个基学习器的预测结果作为二级学习器训练数据的特征,新样本的标签仍然是原样本的标签。

图1  Stacking模型框架

Fig.1  Framework of stacking

2 模型搭建

2.1 预处理

本文选择了太平洋地震工程研究中心数据库(Pacific Earthquake Engineering Research Center,PEER)中记录的地震数据,并选择场地条件相近的地震动加速度记录。每条地震动包含XY双向加速度时程数据,每条数据中都包含了地震发生的时间、地点、采样频率及持时等。对于原始地震动数据,本文按相同的采样频率进行记录,选择OpenSEES作为结构分析软件,以数值模拟方式获得结构响应数据,以Python中的“.npz”格式保存,方便后续模型的读取。

图2展示了本文数据窗口划分的方式。本文中,模型输入特征为双向地震动加速度和结构位移响应时程曲线,输出标签为结构响应时程的双向预测。考虑到初始无地震输入时的地震加速度与结构层间位移均为0,因此在输入数据前进行补零。其中,n为地震波的总时间步数,参数k用于调整模型预测的起点,即是从地震刚一发生就开始预测,还是在地震发生几秒后开始预测。

图2  窗口划分与补零

Fig.2  Window partition and zero-padding

2.2 模型定义与训练

异质基学习器即定义不同的时序预测神经网络模型,包括神经网络结构、选择损失函数和优化器、确定优化器参数和学习率等超参。本文选取了CNN、RNN、LSTM和GRU四种神经网络,以及L1Loss、MSELoss、SoftDTW和DILATE Loss四种损失函数,将其进行如下组合(表1)。

表1  基学习器组成
Table 1  Base learner composition
基学习器编号神经网络损失函数
1 CNN L1Loss
2 RNN L1Loss
3 LSTM L1Loss
4 GRU L1Loss
5 GRU MSELoss
6 GRU SoftDTW
7 GRU DILATE Loss

每个基学习器都选取Adam优化器,初始学习率设置为0.001,使用随机梯度下降动态调整学习率。

二级学习器采用全连接神经网络,线性层神经元数目设置为128,损失函数使用L1Loss,学习率使用随机梯度下降动态调整,初始值设为0.001,激活函数使用ReLU,函数计算式为:

f(x)=max(0,x) (15)

训练代数epoch均设置为300,每批训练样本大小为256。

本文采用平均绝对误差即L1Loss评价模型的预测效果,并将不同的基学习器的预测结果与集成学习后的模型预测结果进行比较。

3 案 例

为进一步验证本文所提出的模型的有效性和准确性,本文选取一3×4跨的5层钢框架结构进行数值实验。

本文在PEER记录的地震数据中选择场地条件相近的地震加速度记录,筛选出235条地震动数据,随机选取其中230条作为训练集和验证集,其余5条作为测试集。通过预处理将时间点和记录绑定生成完整的加速度时间序列。在OpenSEES中构建模型,输入地震波后得到XYZ三个方向的位移时程响应。此框架结构的梁柱均采用工字钢截面,软件中使用英制单位(in),转换为国际单位制(mm)后构件尺寸见表2

表2  梁柱截面尺寸单位:mm
Table 2  Cross‑sectional dimensions of beams and columns
构件截面高度截面宽度腹板厚翼缘厚
617.47 230.25 13.08 22.23
464.82 459.74 28.70 28.70

3.1 数据输入类型及输入窗口选择

当前抗震预测领域的研究中,大多采取单一的输入模式,即对地震加速度和结构位移响应采用非此即彼的输入方式。然而在地震过程中,结构的响应不仅与地震加速度相关,还与结构本身的参数有关。本文采取了使用地震加速度和结构响应同时输入的方式来预测结构响应,表3展示了在使用GRU+L1Loss这一最优的单一模型下,采用不同输入方式下模型预测结果的平均绝对误差,输入方式分别为只使用地震加速度输入、只使用结构位移响应输入以及同时使用两种数据输入,由于篇幅原因论文中只展示X方向的结果(加粗栏为整体预测误差较小的一栏,下同)。

表3  使用不同输入下模型的预测误差单位:mm
Table 3  Prediction errors with different inputs
预测窗口地震加速度结构位移响应加速度+位移最大真实位移
(150,200) 0.262 0.151 0.061 0.917
(650,700) 30.099 0.908 0.857 5.553
(1150,1200) 39.561 0.820 1.291 34.125
(1650,1700) 7.348 1.962 1.532 17.924
(2150,2200) 52.744 0.678 0.563 42.909
(2650,2700) 16.631 1.422 0.433 34.897
(3150,3200) 35.552 2.148 0.341 46.447
(3650,3700) 27.471 0.929 0.480 46.975
(4150,4200) 11.636 0.341 0.302 26.635

根据表3中的数据,可以得到以下结论:(1)在仅使用地震动作为输入的前提下,预测结果的平均绝对误差明显超出了可接受的范围,其预测结果已不能作为参考,说明单一的地震加速度输入并不适应多步预测的需求;(2)在仅使用位移响应作为输入时,预测结果的平均绝对误差已经很小,而同时使用加速度和位移进行预测能够进一步减小平均绝对误差,在X方向上分别平均减小了114.60%。

在进行结构响应预测时,输入窗口的选择影响着数据集划分的大小和模型训练的效果。一方面要求用尽可能少的数据获得尽可能多的准确的预测信息,另一方面过小的输入窗口导致了数据信息的丢失和更大的训练样本,因此需要寻找一个大小合适的输入窗口来平衡两方面的考虑。为此,本文使用GRU+L1Loss组合,对结构在5条不同的地震波下的响应进行预测,表4展示了在不同输入窗口下模型预测的结果,输入窗口长度分别为10、25、50、75、100、150、200个时间步长,预测误差单位为mm。

表4  不同输入窗口长度下模型预测的平均绝对误差
Table 4  Prediction errors with different input windows ( mm )
地震动10255075100150200
RSN70 0.020 0.018 0.026 0.023 0.020 0.028 0.027
RSN615 0.015 0.015 0.013 0.014 0.017 0.012 0.013
RSN986 0.014 0.015 0.013 0.013 0.016 0.011 0.013
RSN3503 0.007 0.008 0.007 0.007 0.008 0.006 0.007
RSN4013 0.013 0.014 0.012 0.013 0.015 0.011 0.012

表4的数据可以得到以下结论:(1)输入窗口的长度和预测的准确度并不是正相关的,更长的输入窗口并不一定能减小模型预测的误差;(2)在地震波RSN70上,预测误差并没有随输入窗口的增大呈现出规律的变化;(3)在选取的5条地震波中,除了地震波RSN70外,输入窗口取150可使模型预测的平均绝对误差取到极小值。综合考虑下,本文选择了150作为输入窗口的大小。

3.2 集成学习模型预测结果

本文将定义好的7个基学习器分为两组,第一组为编号1到4的基学习器,它们采用不同的神经网络,但采用了相同的损失函数L1Loss,第二组为编号4到7的基学习器,它们采用了相同的神经网络GRU,但损失函数不同。

模型以150个时间步的已知双向地震波与结构响应输入来预测未来50个时间步的结构双向响应,单个时间步长为0.02 s。

图3展示了模型使用第一组基学习器(编号1到4)对所选用的钢框架结构在地震波RSN4013下的预测效果,表5给出了在图3所示的预测窗口中,预测值与真实值的平均绝对误差,以及预测窗口中真实位移绝对值的最大值。由表5中数据可得,X方向上平均绝对误差与真实位移的最大值的比值最大为9.26%,最小为0.66%;Y方向上最大值为9.84%,最小为0.76%。

图3  位移预测结果与真实值比较

Fig.3  Comparison between predicted and actual values

表5  第一组基学习器下不同窗口的预测误差
Table 5  Prediction errors in different windows under Group 1 ( mm )
预测窗口平均绝对误差真实位移最大值
X方向Y方向X方向Y方向
(150,200) 0.048 0.078 0.917 1.368
(650,700) 0.514 0.326 5.553 3.315
(1150,1200) 0.809 2.177 34.125 64.516
(1650,1700) 0.823 0.421 17.924 17.687
(2150,2200) 0.341 0.529 42.909 33.979
(2650,2700) 0.409 0.293 34.897 40.409
(3150,3200) 0.305 0.315 46.447 30.388
(3650,3700) 0.608 0.496 46.975 13.874
(4150,4200) 0.353 0.483 26.635 6.050

随着地震发展,预测窗口逐步向后推移,每个时刻的位移相当于被预测了50次,依次位于预测窗口内的第0到第49步,将所有预测窗口内的第i步预测结果提取并组合,可得到模型在预测未来50个时刻的位移时,针对每一时刻的预测结果。

表6展示了第一组基学习器与集成学习模型在针对未来不同时刻的结构响应预测时的误差对比。结果表明:(1)在四种使用了相同损失函数L1Loss而神经网络不同的基学习器中,GRU+L1Loss表现得最好;(2)在所有模型中,集成后的模型预测结果要优于单一模型的预测结果;(3)所有模型都表现出预测误差随着预测时间的增加而增加的规律。值得一提的是,各个模型的预测损失并非在整个过程中单调增加,而是在某处附近取得极小值;(4)基学习器GRU在短期预测时性能最优,LSTM在中长期预测时性能最优,而集成模型能够有效结合各单一模型的优点,进一步提升预测精度和稳定性。

表6  第一组模型预测误差
Table 6  Prediction errors of different models in Group 1 ( mm )
时间步CNNGRULSTMRNNStacking
0 0.581 0.273 0.411 0.563 0.243
5 0.439 0.122 0.165 0.621 0.085
10 0.317 0.092 0.105 0.964 0.072
15 0.348 0.124 0.123 1.372 0.081
20 0.477 0.162 0.150 1.690 0.123
25 0.597 0.253 0.205 2.028 0.186
30 0.727 0.323 0.282 2.279 0.262
35 0.903 0.400 0.382 2.591 0.358
40 1.020 0.523 0.505 2.813 0.480
45 1.289 0.713 0.659 3.340 0.642
49 1.531 0.911 0.832 3.548 0.821

注:  表中数据来自X方向的预测结果,Y方向呈现出相同的规律,不再赘述

使用第二组基学习器(编号4到7)对所选用的钢框架结构同样在地震波RSN4013下进行预测,表7给出了在不同的预测窗口中,预测值与真实值的平均绝对误差,以及预测窗口中真实位移绝对值的最大值。

表7  第二组基学习器下不同窗口的预测误差
Table 7  Prediction errors in different windows under Group 2 ( mm )
预测窗口平均绝对误差真实位移最大值
X方向Y方向X方向Y方向
(150,200) 0.045 0.119 0.917 1.368
(650,700) 0.604 0.304 5.553 3.315
(1150,1200) 0.644 1.775 34.125 64.516
(1650,1700) 1.141 0.200 17.924 17.687
(2150,2200) 0.269 0.372 42.909 33.979
(2650,2700) 0.442 0.479 34.897 40.409
(3150,3200) 0.272 0.168 46.447 30.388
(3650,3700) 0.658 0.387 46.975 13.874
(4150,4200) 0.387 0.512 26.635 6.050

表7中数据可知,X方向上平均绝对误差与真实位移的最大值的比值最大为10.87%,最小为0.59%;Y方向上最大值为9.17%,最小为0.55%。

表8展示了第二组基学习器与集成学习模型在针对未来不同时刻的结构响应预测时的误差对比。

表8  第二组模型预测误差
Table 8  Prediction errors of different models in Group 2 ( mm )
时间步DILATELossL1LossMSELossSoftDTWStacking相比最优单一模型
0 0.404 0.273 0.360 0.486 0.152 44.32%
5 0.278 0.122 0.185 0.232 0.066 45.90%
10 0.184 0.092 0.130 0.326 0.055 40.22%
15 0.199 0.124 0.143 0.499 0.062 50.00%
20 0.198 0.162 0.189 0.636 0.082 49.38%
25 0.256 0.253 0.249 0.767 0.110 56.52%
30 0.358 0.323 0.323 0.880 0.143 55.73%
35 0.457 0.400 0.420 0.970 0.181 54.75%
40 0.587 0.523 0.549 1.046 0.228 56.41%
45 0.757 0.713 0.727 1.081 0.297 58.35%
49 0.956 0.911 0.931 0.984 0.380 58.29%

注:  表中数据来自X方向的预测结果,Y方向呈现出相同的规律,不再赘述

表中数据表明:(1)在这四种使用了相同神经网络GRU而损失函数不同的基学习器中,仍然是GRU+L1Loss表现得最好,而集成后的模型预测性能依然高于单一模型的预测性能,并且基于第二套集成学习模型预测表现要优于第一套集成学习模型的预测表现;(2)集成后的模型能大大提高单一模型预测的准确度,并且在全时期预测中表现出明显的稳定性,即在预测未来较远时间步的响应时,其误差值仍保持在较小的范围;相比较最优的单一模型GRU+L1Loss,集成模型在平均绝对误差上减小了40.22%~58.35%。

4 结 论

研究首次利用Stacking集成算法将GRU、LSTM、CNN、RNN神经网络和L1 Loss、MSE loss、DILATELoss、SoftDTW损失函数结合,应用到结构抗震响应预测上,验证了其在提升预测精度上的有效性和稳定性。模型的预测随着地震过程在同步进行,当模型预测值第一次达到某一阈值时,则将预测结果反馈到主动控制系统中,提前进行结构振动控制,而不必等待位移传感器采集到真实的响应数据,为解决主动控制中的时滞问题提供了解决思路。

同时,本文所采取的Stacking集成方式搭建了一个使用不同机器学习模型进行结构地震响应预测的框架,其基学习器并不局限于文中所使用的几种,当出现性能更好的新网络模型时,可以方便地更改基学习器的组成,产生新的集成模型,达到模型优化的效果。

在将其应用到某钢框架结构中,对比了不同模型的预测效果后得出以下结论:

(1)本文所使用的数据窗口划分方式以及双向地震波和结构位移输入,可有效预测结构在不同方向上的多步位移响应,提高了预测的准确度。

(2)通过Stacking集成学习,可有效提高单一模型对未来多步预测的稳定性。单一模型在进行超短期和长期预测时往往存在预测性能不稳定的情况,通过集成的方式可以提高模型整体的泛化能力,减小全时期预测的误差。

(3)本文提出的模型可以进行未来多时刻的结构位移响应预测,并能够保证较高的精确度。

(4)在本文的数据集和结构模型下,分别使用RNN、LSTM、GRU、CNN与相同的损失函数L1Loss搭建模型进行预测时,使用GRU网络的模型预测结果的平均绝对误差最小;在分别使用L1Loss、MSELoss、DILATELoss、SoftDTW与GRU网络搭建模型进行预测时,使用L1Loss的模型预测结果的平均绝对误差最小,这表明单一模型GRU+L1Loss的组合更适应此场景下的结构地震响应多步预测问题。

后续的工作中,还可以进行以下尝试:

(1)使用更多不同的一级学习器,研究能否进一步提高预测的准确度。

(2)研究预测模型的损失出现极小值的原因,以及其中是否包含具体的物理意义。

(3)具体实施主动控制的全过程,实现地震发生时进行预测预警并提前实施主动控制的流程。

参考文献

1

Yao J T P. Concept of structural control[J]. Asce Journal of the Structural Division1972987):1567-1574. [百度学术] 

2

王伟.土木工程结构振动控制技术的发展[J].居业20223):10-12. [百度学术] 

Wang W. Development of vibration control technology for civil engineering structures [J]. Residential Engineering20223):10-12. (in Chinese) [百度学术] 

3

邱敏张学文陆中玏.土木工程结构振动控制的研究现状与展望[J].安全与环境工程2013203):14-18. [百度学术] 

Qiu MZhang X WLu Z Let al. Research status and prospect of structural vibration control in civil engineering [J]. Safety and Environmental Engineering2013203):14-18. (in Chinese) [百度学术] 

4

郑晓君. 结构主动控制系统时滞补偿及混合试验研究[D].广州广州大学2022. [百度学术] 

Zheng X J. Research on delay compensation and hybrid experiment of structural active control system [D]. GuangzhouGuangzhou University2022. (in Chinese) [百度学术] 

5

Zou L HDai S LButterworth Jet al. Grey forecasting model for active vibration control systems[J]. Journal of Sound and Vibration20093224/5):690-706. [百度学术] 

6

Zhang R YLiu YSun H. Physics-informed multi-LSTM networks for metamodeling of nonlinear structures[J]. Computer Methods in Applied Mechanics and Engineering2020369113226. [百度学术] 

7

许泽坤陈隽.非线性结构地震响应的神经网络算法[J].工程力学2021389):133-145. [百度学术] 

Xu Z KChen C. Neural network algorithm for seismic response of nonlinear structures [J]. Engineering Mechanics2021389):133-145. (in Chinese) [百度学术] 

8

杨迪雄杨开胜郭贵强.强震作用下高层结构地震响应时程的多步预测[J].土木工程学报201649增1):25-31. [百度学术] 

Yang D XYang K SGuo G Q. Multi-step prediction of seismic response time history of high-rise structures under strong earthquakes [J]. Chinese Journal of Civil Engineering201649Sup1):25-31. (in Chinese) [百度学术] 

9

汪鑫. 基于优化神经网络的多层钢筋混凝土结构地震响应预测[D].哈尔滨哈尔滨工业大学2020. [百度学术] 

Wang X. Seismic response prediction of multi-storey reinforced concrete structures based on optimized neural network [D]. HarbinHarbin Institute of Technology2020. (in Chinese) [百度学术] 

10

Hochreiter SSchmidhuber J. Long short-term memory[J]. Neural Computation199798):1735-1780. [百度学术] 

11

Chung JGulcehre CCho Ket al. Empirical evaluation of gated recurrent neural networks on sequence modeling[J].Eprint Arxiv2014. DOI:10.48550/arXiv.1412.3555. [百度学术] 

12

Waibel AHanazawa THinton G Eet al. Phoneme recognition using time-delay neural networks[J]. Readings in Speech Recognition199013):393-404. [百度学术] 

13

Lecun YBottou L. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE19988611):2278-2324. [百度学术] 

14

Lawrence SGiles C LTsoi A Cet al. Face recognition: a convolutional neural network approach[J]. IEEE Transactions on Neural Networks199781):98-113. [百度学术] 

15

李炳臻刘克顾佼佼.卷积神经网络研究综述[J].计算机时代20214):8-12,17. [百度学术] 

Li B ZLiu KGu J Jet al. Review of convolutional neural networks [J]. Computer Age20214):8-12,17. (in Chinese) [百度学术] 

16

Cuturi MBlondel M. Soft-DTW: a differentiable loss function for time-series[C]∥34th International Conference on Machine LearningICML. SydneyInternational Machine Learning Society(IMLS)20171483-1505. [百度学术] 

17

Le Guen VThome N. Shape and time distortion loss for training deep time series forecasting models[C]∥Advances in Neural Information Processing Systems. [S.l.]Neural Information Processing Systems Foundation201932. [百度学术] 

18

Wang KLiu XZhao Jet al. Application research of ensemble learning frameworks[C]∥Proceedings of 2020 Chinese Automation CongressCAC 2020, art. no. 9326882. ShanghaiInstitute of Electrical and Electronics Engineers(IEEE),2020:5767-5772. [百度学术]