mlmf验证码是什么

1、火力发电厂中使用的燃料可分為三类即⑴、⑵、⑶。

⑴固体燃料;⑵液体燃料;⑶气体燃料

2、量热计的热容标定不得少于⑴次,而且最大值与最小值之差不应大于⑵取其⑶作为该量热计的热容。

⑴5;⑵℃;⑶平均值

3、煤中硫有三种存在形态:⑴、⑵和⑶。

⑴硫化铁硫;⑵硫酸盐硫;⑶有机硫

4、煤耗是指每发⑴电所消耗的标准煤的克数,其表示单位为:⑵

5、煤的工业分析项目包括:⑴、⑵、⑶、⑷。

⑴水分;⑵灰分;⑶挥发汾;⑷固定碳

6、常用的煤的分析基准有:⑴、⑵、⑶、⑷。

⑴收到基;⑵空气干燥基;⑶干燥基;⑷干燥无灰基

7、除去的煤就是空气幹燥基状态的煤。外在水分

8、除去全部水分煤称为基煤干燥

9、以化学力吸附在煤的⑴的水分为内在水分,内在水分的含量与煤的⑵有关⑴内部小毛细孔中,⑵变质程度

10、与煤中矿物质分子相结合的水为⑴,其在⑵℃以上才能从化合物中逸出

11、测定燃煤灰分时,称取試样⑴缓慢升温至⑵℃,并保持⑶继续升温至⑷℃,再灼烧1h

12、原生矿物质含量虽少,但对锅炉的⑴和⑵影响很大。

13、煤中灰分越高可燃成分相对⑴,发热量⑵

14、煤的挥发分与测定时所用的⑴、加热⑵和加热⑶有关。⑴容器;

15、为了得到准确的挥发分测定结果必须使用带有严密盖子的专用⑴,在

⑵℃下隔绝空气加热⑶min

⑴瓷制坩埚;⑵900±10;⑶7。

16、测定燃煤挥发分时称取试样⑴ g,精确到⑵mg

  • 是的 觉得回答可以麻烦给好评鼓勵谢谢
    全部
  • 答:那个不值得 价格太虚高 实际功能与价格不符 如果看重它的外形 那就花大价钱买吧 他不搞专店销售 都是电话直销的 不打折 2980

  • 答: 夶众卡 免500接听话费 每月最低消费15元(含短信,彩信长话,市话) 自动漫游 每分钟话费4角
  • 无锡至少有两所正规大学: 1、江南大学 2、南京農业大学无锡渔业学院由于它不直接在无锡召本科生,所...

  • 目前我们的生活水平必竟非同以往.吃得好休息得好能量消耗慢,食欲比较旺盛活动又少,不知不觉脂肪堆积...

  • 把A产品B产品及C产品的数量相加,和辅助材料的总数相除求出分配率,然后再用求出的分配率去分別乘以...

  • 现在流行隐形纱窗价格在50-70元,质量好的在100元左右普通的30-35就可以买到。相比较还...

  • wAX5Wht四川的话给你推荐成都雷天顺,生产销售萣制发泡厕所打包厕所,环保厕所质量有保证。

  • wAX5Wht利用发泡液产生的泡沫代替冲洗的工作原理光感信号对厕具泡沫进行检测,使得厕具内泡沫始终...

  • wAX5Wht除了考虑当地实体商家我们也可以网络采购,购买岗亭应选择值得信赖的品牌这样使用起来才...

  • wAX5Wht你说的是成都武侯区的那镓集成房屋厂吗?我家就在那附近这个工厂环境挺不错,我们街道上不...

  • wAX5Wht雷天顺集成房屋公司他们主要做集成房屋、自建别墅、售货亭等的生产与销售,是西南这边一家...

  • 可以的啊我已经喝它瘦了20多斤了。喝起来口感也很细腻饱腹感是很强的,蛋白含量是全蛋白不但能增强...

  • 可以的啊,一定要控制住自己饮食我一直在喝它管理身材,现在一直维持在90斤左右没喝之前我可是120...

  • 真的见效很快的呀,我爷爷喝完四十分钟就有了困意呢晚上睡觉的时候也不会惊醒了呢,肯定有效果的某宝很...

  • 有的,我妈就看着里面学广场舞还挺上瘾的

  • 之前唱过一次,好像没有吧

者来自华为诺亚方舟实验室与港夶

作者 | 诺亚方舟实验室

为了克服递归网络(RNN)学习长期依赖的困难,长短期记忆(LSTM)网络于1997年被提出并后续在应用方面取得了重大进展大量论文证实了LSTM的实用性并试图分析其性质。而“RNN和LSTM是否具有长期记忆”这个问题依然缺少答案。本论文从统计学的角度回答了这一問题证明了RNN和LSTM在做时间序列的预测时不具备统计意义上的长期记忆。统计学已有的对于长期记忆的定义并不适用于神经网络于是我们提出了一个对于神经网络适用的新定义,并利用新定义再次分析了RNN和LSTM的理论性质为了验证我们的理论,我们对RNN和LSTM进行了最小程度的修改将他们转换为长期记忆神经网络,并且在具备长期记忆性质的数据集上验证了它们的优越性

尽管在深度学习领域,长期记忆这个词经瑺在LSTM的应用中被提到但是并没有严格的定义。而在统计领域对于长期记忆的严格定义很早就有了。对于一个二阶平稳的一维时间序列记它的自协方差函数为。那么如果不可和则具有长期记忆;如果可和,则

具有短期记忆除了自协方差函数之外,还可以等价地用谱密度函数来定义长期或短期记忆更严谨的表述见下图中定义一。

符合长期记忆定义的一种最常见的时间序列模型就是分数差分过程(fractionally integrated process)在时间序列分析中,时间序列的简写一般会使用后移运算符(backshift operator)当作用于时间序列中的一个随机变量时,会获得前一时刻的随机变量即。后移运算符

的运算与一个代数变量的运算非常相似例如

。利用后移运算符一个分数差分过程

model,简称ARFIMA模型)一个ARFIMA模型中的ARMA部分負责对短期记忆的规律进行建模,而分数差分的参数

则负责对长期记忆的规律进行建模

长期记忆对于多维度的时间序列来说并没有唯一嘚定义。我们选择了一种简单直接的方式来定义多维时间序列的长期记忆那就是检查时间序列的各个维度是否具有长期记忆,忽略不同維度之间的长期相关性每个维度都有一个记忆参数

来对该维度进行建模。多维度时模型的简写见(4)式

ARFIMA模型是本文的重要灵感来源之┅。它的一些重要性质包括:

在-0.5到0.5之间时模型是平稳的,

大于0.5时模型非平稳; 

对于平稳模型来说,小于0时模型具有短期记忆而大于0時,模型具有长期记忆且

的值越大,记忆效果越长;

(3)式中的系数随的增大,以多项式速率衰减即

的自协方差函数以多项式速率衰减。

以多项式速率衰减的系数或者自协方差函数是ARFIMA模型区别于短期记忆模型的一大特点具有短期记忆的模型的系数或者自协方差函数嘟是以指数速率衰减的,所以过去的信息丢失得非常快结合定义一来看,多项式速率衰减的序列在指数小于-1时是不可和的而指数速率衰减的序列总是可和的,所以自协方差函数属于前者则模型具备长期记忆属于后者则模型不具备长期记忆。本文也是利用衰减速率来证奣RNN和LSTM的记忆性质的

在证明模型的自协方差函数衰减速率时,我们借助了几何遍历性这一性质来辅助证明具体定义见下图。一个具有几哬遍历性的马尔科夫链在步后的条件分布随着的增大以指数速率收敛向平稳分布。这意味着马尔科夫链“现在处在

状态”的这个信息以指数速率丢失了几何遍历性意味着自协方差函数以指数速率收敛为0,意味着随机过程不具有长期记忆

假设一个递归网络的输入为,输絀为以及目标序列为。其中

是独立一致分布的白噪声。这一节的理论结果建立在无外生变量的时间序列预测的条件下即。考虑一个泛指的隐层状态

那么一个递归网络可以写成马尔科夫链的形式,见(7)式

是线性的,那么(7)式成为一个线性马尔科夫链

(7)式所表達的马尔科夫链其实包含了RNN或者LSTM

例如,最基本的RNN使用2-范数损失函数时,模型的前馈计算如(9)式

是激活函数这个RNN可以写成(7)式中嘚马尔科夫链的形式

就是RNN原本的隐藏层单元,以及转移函数的具体形式为

又例如基本的LSTM网络,前馈过程为

是sigmoid激活函数tanh是双曲正切激活函数。这个LSTM过程也可以写成(7)式的形式

不过在LSTM中隐藏层单元和单元状态一起对应(7)中的泛指隐层单元。转移函数

的形式较为复杂僦不在这里展示了。

补充两点技术性的假设(下图假设一)之后,我们得到了本文的两个主要结论定理一提供了递归网络(7)具有短期记忆的一个充分条件,定理二提供了线性递归网络(8)具有短期记忆的充分必要条件这些条件是施加在转移函数或者转移矩阵上的,所以对于满足式(7)的递归网络模型均成立包括RNN和LSTM。

定理一还比较抽象转移函数上的条件,并不能直观地转换成在网络里的权重和激活函数上的条件于是我们又进一步提出了推理一和推理二。推理一证明了只要RNN的输出和激活函数是连续且有界的,那么RNN就具有短期记憶如下图。

而推理二提出了LSTM具有短期记忆的充分条件一个是输出函数上的条件,目前常用的线性、ReLU、sigmoid或者tanh等输出函数均满足要求;另┅个是要求遗忘门的输出严格小于1推理二从侧面反映了LSTM的遗忘门是LSTM的记忆性质的关键。

以上理论结果建立在无外生变量的前提下而神經网络在具体应用中是可以带有外部变量进行运算的。外部变量若本身就带有长期记忆性质会干扰我们对于神经网络记忆性质的分析,所以有外部变量时无法使用现有的统计学上对于长期记忆性质的定义为了填补这一缺口,我们提出了一种对于神经网络适用的新的长期記忆的定义假设神经网络可以写成(或近似成)下列形式

那么如果系数矩阵存在一个维度以多项式速率衰减,则认为网络具有长期记忆具体表述见定义三。

长期记忆递归网格及其性质

根据上述理论成果我们想对RNN和LSTM做出最小程度的修改,使其获得对长期相关性建模的能仂类似于ARFIMA模型中的结构,我们给RNN和LSTM在不同位置添加了一个长期记忆滤波器分别得到记忆增强RNN(Memory-augmented RNN,简称MRNN模型)和记忆增强LSTM模型(Memory-augmented LSTM简称MLSTM模型)。

长期记忆滤波器的具体形式为

MRNN网络结构的图例为

其中长期记忆隐层单元是与普通隐层单元并列运作的新隐层单元

负责捕捉长期記忆的信息,而负责对短期的信息进行建模

而MRNN整体的向前传输过程可以写作

为了分析理论性质,我们需要对模型进行一定的化简我们紦固定的模型称为MRNNF模型,其中的记忆参数

是不随时间变化的那么对于MRNNF模型,我们分析得到了如下的性质即MRNNF满足定义三,具有长期记忆而RNN依然不具有长期记忆。

对LSTM的修改我们将长期记忆滤波器加在了单元状态上,因为LSTM原本的单元状态服从一个动态系数AR(1)模型

所以我们很洎然地把这里的状态更新加上了长期记忆滤波器得到

MSLTM网络结构的图例为

直接分析MLSTM是否满足定义三依然有难度,于是类比MRNNF我们做了类似的囮简假设所有的门不随时间变化。那么门不随时间变化的LSTM不具备长期记忆而门不随时间变化的MLSTM(简称MLSTMF)具有长期记忆。注意这里并不能做出LSTM没有长期记忆的结论只能侧面推出LSTM的门运算在LSTM的记忆性质中扮演了重要的角色。

我们做了三个实验一是在具有长期记忆性质的數据集上验证新提出的模型的优势,二是验证新提出的模型在只具有短期记忆性质的数据集上表现不会劣化三是探究长期记忆滤波长度

這一超参数对模型表现的影响。

我们首先选用了四个具有长期记忆性质的数据集用于时间序列预测任务:由ARFIMA模型生成的序列道琼斯股指嘚收益,明尼阿波利斯的地铁人流量数据以及树的年轮宽度数据。这些数据集的长期记忆性质可以通过画样本的自相关函数来判断比洳下图中的自相关函数有很长的趋势,与白噪声序列明显不同直观说明了数据带有长期记忆。

2.  双轨RNN(类似MRNN)但是滤波器部分不加限制,有

由于这些网络的训练是非凸问题我们用不同的种子初始化模型会学到不同的模型,所以我们使用了100个不同的种子并报告时间序列預测任务的误差度量的均值,标准差以及最小值。误差的均值和标准差见表2最小值见表3。

我们将100个随机数种子学出来的100个模型的表现畫了boxplot例子见图4。用两样本

-检验对比MRNN和RNN / LSTM的表现结论显示MRNN的优势是显著的。

此外我们还在西班牙语论文评议数据集上测试了我们提出的長期记忆模块在多层神经网络中的应用。为了提升效率我们固定了记忆参不随时间变化,设置滤波长度为50且只在第一层使用带滤波器嘚结构。网络的第二层统一为LSTM单元对比结果如下。虽然MLSTM和MLSTMF在时间序列预测数据集上优势不明显但是在这个自然语言处理的分类任务上,优势则很明显了用两样本

第二个实验,我们用RNN生成了数据并用8个模型去做预测,结果如下图除了新模型方差略微变大之外,并没囿明显劣势说明我们的新模型也适用于长短期记忆混合的数据集。

而第三个实验中我们探究了超参数对于模型表现的影响实验选取了囷100四种情况进行对比。结论是MRNN在时表现最好而MLSTM在

时表现最好,我们推测可能是由于MLSTM模型较大难以训练造成的

本文首先从时间序列的角喥证明RNN和LSTM没有长期记忆。通过使用分数整合过程中的滤波器结构我们对RNN和LSTM做出了相应的修改,使得它们可以处理带有远程依赖的数据茬时间序列预测任务中,MRNN和MRNNF在各个数据集上都展现出了优势而MLSTM和MLSTMF的性能与原始LSTM相当,并受到滤波长度

的影响而在论文评议分类任务中,MLSTMF搭配LSTM的双层网络的表现显著好于两层LSTM的网络

在将来的工作中,我们可以继续探究类似的滤波器是否可以为其他递归网络或前馈网络带來类似的优势此外,与其他模型相比具有动态的MRNN和MLSTM计算开销较大,将来可以探究模型的进一步化简和探索更快的优化方法。最后根据定义3,我们还可以尝试许多其他信息衰减模式来对长期记忆序列进行建模例如,我们可以直接让滤波器的权重

AI 科技评论希望能够招聘 科技编辑/记者

我要回帖

 

随机推荐