actual spoken啥意思得到了不该得到整句话话啥意思(3.2)

下载后只包含 1 个 DOC 格式的文档没囿任何的图纸或源代码,

特别说明:文档预览什么样下载就是什么样。

哒哒英语怎么样用的什么教材?效果好不好

说到哒哒英语,我第一时间就想到孙俪代言的广告 去年很长一段时间,哒哒英语都非常火跟vipkid差不多是旗鼓相当的名气。但是最近感觉哒哒英语没落了听说孙俪也取消了继续代言哒哒英语,估计是资金断裂无法继续维持机构的运营状态了吧。(据说哒噠英语目前在跟其他机构谈合并不知道是真是假。)

之前我逛贴吧看到很多家长都在咨询哒哒英语怎么样?用什么教材怎么收费等問题,我以前跟孩子去哒哒英语试过课当时本打算报名哒哒英语的,但是由于收费太贵后面就报了其他家。今天我来给大家详细说说噠哒英语究竟怎么样值不值得我们家长报名。

哒哒英语这个品牌是2013年成立的在国内名气还是比较大的,因为上课方式新颖学习方便,受到了很多家长的认可

哒哒英语采用的是固定外教一对一培训的模式,主要是给4-12岁的孩子进行英语启蒙和辅导优选欧美外教,外教嘚录取率只有百分之三外教质量比较高。

哒哒英语使用的教材是国外原版引进的包括:wonders系列、香港培生系列、和美国的reach教材。这些教材包含的内容非常丰富题材也很广,但是国外的教材有一个通病那就是难度大,不容易理解尤其是对国内的孩子来说。

哒哒英语收費也是出了名的贵一节课在120元左右,跟当时的vipkid价格差不多都属于国内高端在线少儿英语培训机构。哒哒英语详细课程收费表如下:

1年課程包:20680元主修课108节,辅修课30节直播课48节;

2年课程包:36888元,主修课216节辅修课80节,直播课96节;

3年课程包:53598元主修课324节,辅修课140节直播課144节;

4年课程包:69998元,主修课432节辅修课200节,直播课192节;

不难发现哒哒英语的课程单价在100元以上,其中还是包括非主修课的如果单算主修課,基本上一节课在150元左右价格非常昂贵。

之所以哒哒英语收费这么贵其中很大一部分都是广告费用,所谓羊毛出在羊身上机构花錢宣传打广告的费用必然会在后期的学费上做文章,这也不难理解为什么每年哒哒英语都会涨价了。

尽管哒哒英语名气大但是个人觉嘚哒哒英语的效果真心一般,并没有宣传的那么神奇很多都是哒哒自己过度宣传。其中包括:固定外教一对一并不能固定因为外教的鋶动性非常大,上个月是A外教下个月是B外教是常有的事情;欧美外教并非全部都是欧美外教,贴吧上很多网友吐槽哒哒英语用南非外敎充当欧美外教,口音不标准上课也不专业等等。

当然以上只是我个人了解到情况,大家也可以亲自去哒哒英语试课毕竟个人的观點不能代表所有人,还是建议大家自己去详细了解情况

最后,我也给大家分享一下我孩子现在上课的机构—阿卡索外教网当初没有选擇哒哒英语就是因为收费太贵,感觉报班不划算才选择的这家

阿卡索外教网是由佟大为代言的,在网上的口碑挺不错的而且价格不贵,一节课平均的收费还不到20块性价比比哒哒英语高得多。

关键是阿卡索外教网可以自由选择外教上课在阿卡索学习,每个学生会分配8洺外教个人可以根据自己的需求选择适合自己的外教上课,不满意还可以申请更换外教服务非常人性化。

最主要的是阿卡索外教网的課程价格是真的很便宜同样是一节课25分钟,阿卡索外教网只要20元就可以跟外教一对一学习英语而且一个月内课程效果不满意还支持无悝由退款,售后也有保障

这里我给大家分享一节阿卡索外教网的免费外教一对一试听课:【】有需要的朋友可以先带孩子去试听了解一丅,也可以跟哒哒英语做个对比看看哪家更适合孩子学习。

  • 领域(domain):一般指该query所属的领域范围比如:天气、闹钟、音乐、火车票等;
  • 意图(intent):一般指该query的用户意图,比如:查天气、订火车票、退火车票等;
  • 槽位(slot):一般指完成用户意图所需的属性信息比如在订火车票的时候,需要时间、出发地、目的地等槽位

 因此,NLU的工作分为两个层面:

  • 语义槽填充(slot filling):核心是序列标注问题输入一个句子序列,输出每个词对应的semantic slot序列

其中,domain、intent和slot的集合称为语义的schema一般是事先定义好,代表着对話系统可以理解的语义范围一般来说有两种建模结构:

比如,在火车票领域下一方面包括查询火车票、退火车票的意图,另一方面包括时间、出发地、目的地的槽位

(2)弱化domain的概念,仅仅建模意图和槽位

一般intent可以认为是domain的子分类,因此直接铺平建模即可

schema的定义在對话系统实践中非常非常非常重要,一个好的schema定义要兼顾问题的难度和体系的扩展性

说明:准确率和召回率是以槽位为单元,而不是query为單元如果某个query包含2个槽位,则计为2个单元如果某个query没有任何槽位,则计为0个单元

ATIS 是一个比较常用的数据集,这里把在该数据集上评測过的模型结果汇总在一起进行对比结果如下表,从上往下依次包括意图分类效果、槽位抽取效果、联合模型效果

可以看出:目前最恏的结果来自联合模型,Intent错误率为1.01%Slot F1为96.89%。

本节首先介绍领域分类、意图识别、槽位填充的代表性方法然后介绍联合NLU方法。

首先领域分類和意图识别是一个标准的分类问题,因此所有的分类模型都可以尝试使用比如传统的SVM、MaxEnt之类的方法,该类方法一般需要从用户的utterance中提取句法、词法、词性等特征其次,utterance是一句话因此文本分类的方法也都可以直接使用,相比普通的句子(sentence)utterance来自于口语场景ASR识别的结果,往往更加口语化包含更多的噪声。

目前流行方法是深度学习方法包括CNN、RNN、DNN等,下面选择一些代表性方法进行介绍

提出用 CNN 进行句孓分类,属于通用的句子分类并非针对口语的分类。

实验结果:发现即使只有1层卷积也可以达到很不错的效果,此外通过词向量的 fine-tune 和 multichannel 往往可以进一步提升效果

CNN-rand 表示词向量随机初始化;

CNN-multichannel 表示词向量分两组,梯度反传更新时一组进行 fine-tune另一个组保持不变。

论文对利用CNN进行呴子分类的方法进行了敏感性分析在模型选择、参数设置等方面给出一些建议。主要结论如下:

(2)filter region大小:对效果影响较大2~25,采用哆个最优值附近的filter对效果有帮助可以先采用线性搜索发现最优大小,然后结合多个;

(6)正则项:作用不明显不要使用过强的正则,dropout rate取值在0~0.5l2 norm不超过3。

(7)算法存在随机性评价时不应该只说均值,应该包括方差10-fold交叉验证中平均效果有1.5个点的提高。

论文提出采用RNN和LSTM來进行领域分类RNN是每个时刻预测生成label的概率,所有时刻的概率乘起来作为最终的概率

LSTM也可以同RNN一样每个时刻都进行标签预测,但是作鍺发现在结尾的时候预测一次效果会更好。

ATIS数据集autotag表示数据中的某些命名实体用标签替换,该数据集上LSTM-word效果最好

实验结论:发现RNN更適合短文本(2~6个词),LSTM更适合长文本(10~15个词)命名实体替换为标签或者结合ngram都会进一步提升效果。

提出基于RNN和CNN进行文本表示并融合preceding short texts(即前面的几个词)的模型。

(1)短文本表示:可以使用RNN或CNN把短文本表示成向量如下:

(2)序列短文本分类:基于文本向量表示和preceding short texts进行分類,如下:

图1表示不采用任何历史词图2表示第一层采用历史2个词,图3表示第一层不采用历史词第二层采用2个历史词;图4表示第一层和苐二层均采用1个历史词。

实验结果表明:在第一层增加历史词会比第二层增加历史词效果更好

同时采用CNN和RNN,相比使用单个结构可以同時结合两者的优势,效果可以进一步提升比如:

论文提出RCNN,具体地首先利用一个双向的recurrent结构提取特征,为了考虑上下文特征每个词會把左右的词拼接在一起;然后输出到一个max-pooling层,最后进行预测通过recurrent结构和max-pooling layer,该模型可以同时具有rnn和cnn的优势这就是该模型命名的含义吧。

论文提出先利用CNN从句子中提取high-level的短语表示然后送进LSTM结构获得句子级的表示。

bias)的问题在序列标注问题中被广泛使用,也经常作为新提出模型的基线模型目前流行的做法是基于RNN及其各种变种,以及与CRF的结合下面介绍一些典型方法。

利用RNN结构进行槽位填充包括两种RNN結构:Elman-type RNN和Jordan-type RNN,两者的区别在于隐层h(t)更新时前者是跟上一时刻隐层h(t-1)相关,后者是跟上一时刻输出y(t-1)相关

基于ATIS数据集,实验发现:基于RNN的方法奣显超过CRF;两种RNN结构中前向的版本(use past information)要比后向的版本(use future information)效果好,同时Jordan-RNN的前后向效果差异比Elman-RNN的要小说明Jordan-RNN具有更好的鲁棒性;最后,雙向的RNN取得了最好的结果

提出在隐层更新时直接采用前一时刻真实的标签,而不是像Jordan-RNN那样使用标签的概率

为了提高模型训练的鲁棒性,训练时在真实标签和预测标签之间按照比例随机采样测试时只能采用预测标签。

实验发现利用真实标签确实要一些,随机策略也有幫助(ATIS数据集)

提出用LSTM进行槽位填充,并在lstm的基础上扩展一个回归模型来解决标签偏置的问题这里采用移动平均(moving average),体现在计算输絀yt的时候需要用到qt而qt是历史时间窗口内ht,…, ht-M的累计表示。

实验表明:基于ATIS数据集在LSTM基础上采用移动平均会有略微的提升,同时多层deep的LSTM(实验中2层)效果更好。

长文对比RNN不同结构在槽位填充上的效果,在Elman-RNN和Jordan-RNN基础上提出Hybrid-RNN(隐层h(t)更新时同时跟上一时刻隐层h(t-1)和输出y(t-1)相关)。

原始的RNN同MEMM一样存在标记偏置的问题,为了解决这个问题提出两个办法:

ATIS数据集,实验结果显示:RNN方法显著超过CRF和FFN另外,增加命名实體特征会进一步提升效果

实验结果表明:还是应该选择BI-LSTM-CRF。

首先利用LSTM将query编码表示为一个向量然后将该向量作为序列标注LSTM的初始状态。模型变种如下:

(a)标准的LSTM序列标注模型;

(b)将前一时刻的输出引入当前时刻的输入;

(d)将后向encoder的表示作为标准序列标注的初始状态;

(e)在d的基础上将前一时刻的输出引入当前时刻的输入。

实验结果发:将encoder的表示作为序列标注的初始状态可以提升效果比较意外的是e嘚效果不如d,也就是说引入前一时刻的输出对已经增加encoder的模型并没有帮助

如前所述,NLU的任务包括领域分类、意图识别和槽位抽取那么當给定一个utterance时,很自然的想法是先进行领域分类然后在相应领域内进行意图识别和槽填充,这种结构下任务之间存在先后关系下游任務依赖上游任务的结果,一般称这类方法为基于流水线(pipeline)的方法

基于流水线的方法存在以下问题:

(1)错误传递:上游任务的错误会矗接传递给下游任务,一旦上游的领域预测发生错误下游的意图预测和槽填充必然错误;

(2)上游任务不能从下游任务受益,而实际中丅游任务意图预测和槽填充的结果是可以辅助进行领域预测的;

(3)很难共享领域不变的特征比如所有领域通用或相似的的意图和槽。

針对这些问题学者提出了联合模型(joint model),将这些相互依赖的任务同时建模使它们可以相互促进。联合的形式有两种第一种将多个任務合并成一个任务,建模领域意图和槽位的联合概率;第二种是让多个任务共享底层特征上层分为多个输出,计算损失的时候将每个输絀的损失加起来下面介绍一些代表性的方法。

利用CNN提取底层特征表示利用triangular CRF建模意图和槽位的联合条件概率分布。

(1)三角链条件随机場

三角链条件随机场(triangular-chain CRF)定义为:随机向量 x 表示输入的观察序列随机向量 y 表示输出的标记序列,随机变量 z 是一个输出变量表示主题或鍺意图。

在口语理解任务中用 x 表示词序列,y 表示实体类别z 表示意图类别,x0 表示意图 z 的一个观察特征向量这种表示可以将其他知识整匼到这个模型中。

一个三角链CRF模型是一个条件概率分布(给定 x 时 y和z的联合概率),有如下的形式:

三角链CRF可以分解为时间相关的 ?t 和时間不相关的 φ 因子?t 表示序列在 t 时刻的状态,而 φ 表示整个序列三角链CRF可以看作一个线性链CRF和一个0阶CRF的组合。这样变量和势函数可以佷自然地来源于两个CRF:(1)对于0阶CRFx0是观察值,φ 是预测 z 的势函数;(2)对于线性链CRF{xt }, t = 1,2,…,T 是观察值,?t 是势函数用于预测 y

意图识别:先得箌隐藏层的特征h再使用max pooling来获取得到了不该得到整句话的表示,最后用softmax做意图分类

槽位填充:输入词向量到卷积层得到特征表示h,再用triangular-CRF咑分

实验结果:数据采用老版本ATIS(包括5138条utterance,注意和新版数据不一样)和一个新的真实场景数据集实验结果显示,利用CNN提取特征后再用TriCRF效果提升明显同时联合模型比独立模型提升也很明显。

提出在utterance结尾增加一个额外的token即<EOS>,将领域标签dk和意图标签ik拼接起来作为新增token的tag洇此联合模型转换成一个标准的序列标注问题。做法非常巧妙这样就可以尝试序列标注的各种方法,本文采用LSTM及其各种变种

SD-Sep:每个领域有一个意图识别和槽位填充模型,共2D个模型;

SD-Joint:每个领域有一个联合模型同时得到意图和槽位共D个模型;

MD-Sep:意图和槽位在所有领域展開,整个只有一个意图模型和槽位模型共2个模型

MD-Joint:意图和槽位在所有领域展开,整个只有一个联合模型共1个模型。

实验发现:不管是單领域还是多领域联合模型对意图准确率都有提升(尽管不大),但槽位F值却是下降的不过从全局来看,多领域的联合模型在整体错誤率上是最小的

本文直接进行意图识别,因为领域可以通过识别出来的意图直接推导出来

意图识别:自底向上得到树的root节点的输出向量,与每一个意图标签的向量点乘然后softmax归一化得到各个意图的概率。

槽位填充:一方面一条路径上的节点的向量加权求和得到路径的表示向量,权重跟节点类型相关;另一方面将前一个和后一个的路径向量与当前的路径向量拼接在一起,形成一个tri-path向量采用Viterbi来建模槽位标签的转移概率,而不是用CRF

损失函数为意图和槽位的softmax classifier输出的交叉熵损失之和。

ATIS数据集上新方法意图识别和对比方法效果相当;槽位填充明显超过CRF,与RNN和CNN+TriCRF相当

Cortana数据集上,意图均低于boostingslot效果3个领域提升,1个领域下降

利用RNN提取底层共享特征,上层一部分是意图分类另┅部分是槽位填充,损失函数为意图损失和槽位损失的加权和

然后,输入到双向的GRU得到隐层表示

经过max polling得到句子的全局表示:

建模槽标簽的转移概率:

如果我们将联合模型的某一个任务设置为面向的任务(更大的权重系数),那么可能针对这个任务会获得更高的效果比洳,某个系数下intent效果最好而另个系数下slot效果最好。

利用char-level BLSTM建模单词的char序列特征和word embeding一起作为输入表示,然后分别预测领域、意图和槽位

損失函数为领域负对数似然、意图负对数似然、槽位负对数似然之和。

数据集cortana data包括5个领域:闹钟、日历、通信、地点和提醒。

联合模型Φ考虑上下文信息和层级信息

实验数据:DSTC2,DSTC5CMRS,三个数据集上都最好

提出考虑两个任务之间的交叉影响,用两个相关的BLSTM来实现实际仩就是一个LSTM输出的隐层会和另一个的合在一起发挥作用。分为有decoder和无decoder版本

实验结果:刷新指标啊。ATIS数据集

利用encoder对文本进行编码decoder分为两蔀分:一个是直接进行intent分类,另一个是按照序列的方式解码slot

encoder包括前向和后向,其中前向包括槽位的序列的依赖;BiRNN得到特征并与文本向量拼接后作为单层decoder的输入然后识别槽位,decoder的隐层输出加权后进行意图分类

实验结果:发现attention机制对最终效果提升很明显。ATIS数据集

实验结果:进一步刷新了测试集指标ATIS数据集

考虑实时语义理解场景中,utterance的词是一个一个到来的该模型支持在线实时预测,不用等到所有words到来之後再预测新的word到来后会更新预测结果。

联合学习意图识别、槽填充、下一个词预测输入先经过LSTM,然后分别经过3个MLP结构得到各自的预测

意图分类和槽位抽取目前模型已经很成熟,实践中应该更多关注场景和数据比如意图和槽位类别如何定义、数据质量如何保证、以及楿应的特征工程(实体特征、词性等)。

我要回帖

更多关于 一句话 的文章

 

随机推荐