训练回归模型准确率率高 能够说明 数据关联性吗

论文:利用ClementineC5.0模型预测CDMA客户流失-中大网校论文网干货 | 一文带你读懂DeepMind新论文,关联推理为什么是智能最重要的特征
干货 | 一文带你读懂DeepMind新论文,关联推理为什么是智能最重要的特征
大数据文摘作品,转载要求见文末编译 | 宁云州、张礼俊、笪洁琼每一次DeepMind发布一篇新论文,媒体都会疯狂地报道。其中不乏许多让人迷惑的术语。比如就有未来主义者这样报道:DeepMind开发了一个可以感知周围事物的神经网络。这不仅仅误导人,还吓跑了那些没有接受过博士阶段的学习的人。所以在这篇文章里,我打算用尽量简单的语言来解释这个新的神经网络架构,这篇文章也要求一些神经网络方面的基础知识。你可以在这里找到原论文:https://arxiv.org/pdf/.pdf什么是关联推理?简单来说,关联推理是去学习不同物体(想法)之间的联系,这被认为是智能最为重要的特征。论文作者用了一个图形示例来解释:从关联问题的角度来看,上图的模型需要检查不同形状、尺寸、颜色的物体,还能够回答和多个物体相关的问题。关联网络作者提出了能够抓住物体内在联系的神经网络(正如卷积神经网络能够提取图像的性质)。他们提出了由下式定义的架构:公式解释:神经网络和函数当我们在学习神经网络,做反向传播之时很容易忘了,一个神经网络实际上只是一个简单的数学函数!因此,方程(1)所描述的函数是一个神经网络!更准确的说,其中有两个神经网络:关联网络是灵活的作者以一个模块的形式提出了关联神经网络。它可以接收被编码了的物体并学习其中的关系。但更重要的是,关联神经网络可以被嵌入于卷积神经网络(CNN),和以长短时记忆单元[Z1]&(LSTM)为基础的递归神经网络中。卷积神经网络可以被用于从图像中学习物体,这使其更易于被应用。因为能在图像中进行推理比在用户指定的物体中进行推理明显更有用。伴随着词嵌入,长短时记忆单元(LSTM)可以被用于理解模型被问及的问题的含义。这是很有用的一个变革,因为模型现在可以接收英文句子而不是预先定义好的物体。作者提出了结合关联网络,卷积神经网络和长短时记忆单元来构建一个端到端的、能学习物体之间关联的神经网络。上图解释:图像经过一个标准的卷积神经网络(CNN),从中提取出图像的特征。关联神经网络的输入对象是网格中每一个点的特征向量。比如说其中一个对象是黄色的向量。问题被传入长短时记忆单元(LSTM)中,产出了一个关于问题的特征向量。也就是这个问题的点。同时对方程(1)进行了一些修改,加入另一项使其变成:在上面的公式中,注意到比起方程1多了一个q项。这个q是长短时记忆单元的最终状态。现在关联性是条件于q的。在此之后,神经网络输出的对象和长短时记忆单元输出的特征向量被用于训练关联网络。基准作者在几个数据集中展示了该模型的效果。这里我们讨论其中一个数据集(在我看来最显著的一个)——CLEVR数据集。作者指出他们的模型比其他方法在精确度上高很多。这是因为关联网络就是为学习关联性而设计的。相对于注意力堆模型仅仅75%的准确率,他们的模型达到了96%+的准确率。结论关联网络十分擅长高效地学习关联性。同时灵活,可以结合卷积神经网络和长短时记忆来一起解决问题。这篇博文意在破除由于大量论文发表导致人工智能已经接管了一切的假象,并介绍当下最先进的算法是什么样的。2017年7月《顶级数据团队建设全景报告》下载关于转载如需转载,请在开篇显著位置注明作者和出处(转自:大数据文摘 | bigdatadigest),并在文章结尾放置大数据文摘醒目二维码。无原创标识文章请按照转载要求编辑,可直接转载,转载后请将转载链接发送给我们;有原创标识文章,请发送【文章名称-待授权公众号名称及ID】给我们申请白名单授权。未经许可的转载以及改编者,我们将依法追究其法律责任。联系邮箱:。志愿者介绍后台回复“志愿者”加入我们往期精彩文章点击图片阅读一文看懂生成式对抗网络GANs:介绍指南及前景展望 上传我的文档
 下载
 收藏
该文档贡献者很忙,什么也没留下。
 下载此文档
正在努力加载中...
基于关联规则的随机森林模型
下载积分:5000
内容提示:基于关联规则的随机森林模型
文档格式:PDF|
浏览次数:9|
上传日期: 09:00:51|
文档星级:
全文阅读已结束,如果下载本文需要使用
 5000 积分
下载此文档
该用户还上传了这些文档
基于关联规则的随机森林模型
官方公共微信大数据挖掘是个什么鬼?先搞定以下五大关系
数据科学家”作为一个新兴的名词,他们主要是采用科学方法、运用数据挖掘工具来做大数据洞察的工程师。一个优秀的需要具备诸如数据采集、模型算法、数学软件、分析预测、市场应用等多方面的素质。如果你也想成为一名数据科学家,那么可以先从本文介绍的数据挖掘过程中的五个关系开始,一点点探索整个数据挖掘的蓝图。
1.样本与总量
相信大家读书的时候,数学老师曾经扔给你一批样本数据,然后让你去根据课堂上的知识做个分析或者建个模型,当时大家心里有没有想过,自己拿这么点数据分析出来的结果到底能用到实际中去么?其实平常工作学习中,我们在数据挖掘或建模的时候,采用的往往是样本数据而非总体数据。以贷款业务为例,一个P2P贷款公司只有曾在其公司有过贷款行为的客户的数据,而这些客户是所有贷款客户的一个样本。那么,有很多人就会担心这样一个问题:采用这样的样本数据训练模型是否会对结果造成影响?
这个问题的答案取决于样本大小和样本偏差。 首先来聊聊样本大小。
假设我们要做一个信用评分模型,这个模型以某一客户群体的数据作为训练样本。假设每个客户由性别和职业两个变量来描述,如果性别有2种取值,而职业有18种取值,则描述这个客户群体的特征分布需要2*18=36个参数。在这种情况下,如果仅有几百个样本,那么样本量恐怕是不足够的。
一般来说,描述客户群体的维度越多,需要的样本量也越大。如果每个客户由K个变量表示,而每个变量有V种取值,则描述这个群体的特征分布需要O(K^V)个参数,需要样本量至少为10^2~10^3*O(K^V)。
再来聊聊样本偏差。
如果所抽取的样本不是随机的,那么无论其选择的样本量有多大,则根据这些样本数据所估计的参数就不能准确反映所研究的总体性质的分布,这种情况下样本存在偏差。
样本偏差在实际问题中是不可避免的。还是以贷款业务为例,一个针对大学生群体的P2P公司的样本数据与贷款客户的总体数据是有偏差的。如果用存在偏差的样本训练风险评分模型,那么其在总客户群体上的表现可能一般。这种情况下,可以通过对样本加权重的方法来调整其特征分布,从而修正样本偏差。
&2.数据质量与模型选择
聊完数据样本的问题,我们接着看看数据质量和模型选择的关系。人们常说garbage in garbage out.
所以有人要说:“数据质量最重要!模型是浮云”这个时候,每天研究各种模型算法的人抬头看一眼那哥们儿,怒火中烧。那么这两者到底什么关系呢?其实,数据质量和模型选择是实现准确预测的关键。数据质量决定了预测准确性的上限,而模型选择(包括参数调优)决定了如何达到上限。数据质量包括三个方面:一个是数据的长度,即有多少数据能够供我们分析使用,另外一个是数据的宽度,即数据的信息量是否全面。最后一个是数据的饱和度,即对于每一个研究的单元对象,其信息是否都真实反应了本体,而不存在大量缺失。训练数据集的质量直接决定了模型的可靠程度,故数据质量测试、数据清洗是在建立模型之前不可或缺的一步。
为了实现某一个商业目标,有很多模型可以作为候选。例如解决最常见的分类预测问题时,有非常多的备选的模型:线性回归模型(逻辑回归)、概率图模型(Tree-augmented
bayes)、深度学习模型等。然后可以通过KS、AUC等指标,调整模型中的参数,从而提高其表现。在数据挖掘竞赛中,单个模型表现往往中庸,而一个广泛采用的策略是通过多模型混合来提升预测的稳定性和表现。
然而,相对数学模型,数据质量乃是最关键的要素。一个数据挖掘工程师可能80%的时间用在筛选变量和清洗数据上。在现实环境中,我们首要的是经常问这样一个问题:“where
is the data?”
&3.模型准确性和模型可解释性
有时候会发生这样一个场景:建模型的人欣喜若狂的拿着个评分卡模型去给业务部门看,骄傲的说了一通自己的模型有多牛逼,能如何准确地发现潜在风险违约客户。结果业务部门的人一脸困惑的问了一句:“我拿你这个结果拒绝了客户的话,我要怎么跟客户解释原因?”这里模型的准确性指的是能否准确地发现潜在风险违约客户,而模型的可解释性指的是如何理解模型评分,即,如果一个客户的信用评分为400分,那么是什么造成了他的分数比较低的。
通常情况下,模型的准确性和模型的可解释性是不可兼得的。模型越简单,则其越容易理解,但简单的模型预测准确性往往不好,例如,决策树模型可以让人一目了然的知道哪个群体的人存在风险,但其表现往往在所有模型中垫底。而一些非参数模型(如随机森林等),其规则复杂到难以用自然语言描述,无法直观的被人理解,但其预测效果却很优秀。
那么,在两者不可兼得的情况下,我们应该更重视模型的准确性还是其可解释性?相信很多人会认为准确性更重要。的确,在大多数数据挖掘竞赛中,模型算法是通过其准确性来衡量优劣的。这很容易理解,如果一个P2P借贷公司完全依靠评分卡模型来做准入审核,那么模型的准确性会直接影响到贷后的违约率,直接决定了这个公司的CEO是要跑路还是走向人生巅峰。
然而实际情况是,评分卡模型仅仅是其准入审核的一个环节,在初筛之后,风控专家会对评分卡模型不能有效分辨好坏的客户进行人工审核。人工审核的过程不仅会全面收集客户的信息,更需要通过话术策略有效的鉴别客户所提供信息是否虚假。例如,在照会过程中,风控人员可能会故意将客户提供的一些资料说错而观察其反应等。
在这种情况下,模型的可解释性就变的尤为重要。设想,如果一个评分卡模型不仅能告诉风控人员客户的潜在违约率,更可以帮风控人员在错综复杂的客户数据中梳理出一条明晰的调查线索,告诉风控专家应该着重调查客户的哪个方面以及客户之前提供的信息有哪些初看起来正常但实际自相矛盾的地方,这将对提高风险控制能力有很大作用。
4.统计分析和数据挖掘
统计分析与都是商业智能的一方面。统计分析是运用统计方法,基于假设分布和假设检验的理论方法,总结数据与基础群体之间的联系并做预测。数据挖掘是基于训练(Training)、验证(Validation)、测试(Test)数据集的关联,通过算法,搜索出隐藏于其中的信息。统计分析需要更多的概率分布假定,而数据挖掘更注重验证结果的可靠性。但是两者往往互通互容、相互支持,之间并没有明确的界限。
&5.当前模型和模型迭代
人类的行为模式在科技发展的今天是在不断演变的,所以当前模型只能反应出过去的历史规律和判断,且一般都有一个有效期。模型迭代是保证模型有效性的必然步骤。
在迭代模型的过程中,需要在风险管理阶段对上一阶段的执行情况作出判断、规划下一步的执行内容、评估风险及控制时间与资源。
最后,送给大家三句秘籍:
在最终的分析中,所有知识皆为历史
在抽象的意义下,所有科学皆为数学
在理性的世界里,所有判断皆为统计
这三句秘籍可不是我说的,是来自印度的传奇数学家拉曼努杨。我想,只有那些优秀的“”,方能深切体会上面三句话的含义。在漫漫历史长河里,所有的判断结论皆为概率存在,这也是这个世界之所以迷人的终极原因。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 数据关联性分析 的文章

 

随机推荐