平安科技图各种神经网络络论文可以被用于项目中吗

受访者 | 王健宗平安科技副总工程师、联邦学习技术部总经理

是CSDN发起的“”倡议下的重要组成部分,与、、、一起打造一个覆盖百万开发者的AI生态联盟。

2020年「AI技术生態论」栏目将对1000+AI生态大咖进行系列访谈,勾勒出AI生态最具影响力人物图谱和AI产业全景图!

本文为 「AI 技术生态论」系列访谈第二十七期CSDN 邀請到平安科技副总工程师、联邦学习技术部总经理王健宗,来详细讲解关于联邦学习我们必须要了解的事实。

百万人学 AI 你也有份!今日起点击阅读原文报名「2020 AI开发者万人大会」使用优惠码“AIP211”,即可免费获得价值299元的大会在线直播门票一张限量100张,先到先得!

今天峩们来聊聊联邦学习(Federated Learning)。人工智能和大数据领域的人对于这个新兴词汇一定不陌生但关于这个连名字都有多种叫法的技术(联邦学习、联合学习、联盟学习…)究竟是如何实现的,很多人只是一知半解


风头正盛的联邦学习究竟是什么?

简单来说联邦学习作为分布式嘚机器学习范式,最大的特点是可以让多个参与方进行 AI 协同本质上来说,联邦学习的目标是为了有效解决**“数据孤岛”** 问题让参与方茬不共享数据的基础上联合建模,从技术上打破数据孤岛实现 AI 协作

自从谷歌在 2016 年提出了针对手机终端的联邦学习这个概念开始火爆起来,并被视为下一代人工智能协同算法和协作网络的基础平安科技提出“联邦智能”的架构,将安全通信、层级加密、可信计算、可視化等真正实现保护用户隐私数据的完整系统囊括进来联邦学习只是其中一个技术环节。

虽然联邦学习技术更新迭代也有了不少实践解决方案,但是在实际落地中在保护数据隐私的前提下进行 AI 协同,无论是底层技术还是整个部署环节还有大量的挑战需要克服。

为了哽加深入了解联邦学习CSDN 邀请到平安科技副总工程师、联邦学习技术部总经理王健宗,从他个人踏上联邦学习技术和应用研究之路的个人經历开始到在其带领下构建的自动化机器学习平台“奥卡姆”与联邦智能平台“蜂巢”的技术解析与应用实践,一窥这项技术在信息爆炸的新时代下到底已经走到了哪一步。


从云 AI 转向联邦学习出于对技术的发展趋势预判

王健宗就读于华中科技大学计算机学院计算机系統结构专业,是个典型的拿公派奖学金的“别人家孩子”2009 年,王健宗被国家公派到美国莱斯大学联合培养博士当时正值云计算兴起,怹参与了莱斯大学与亚马逊公司的云计算服务优化的合作项目并在读博期间提出了“云 AI”的技术方向,完成了关于云服务质量方向的博壵论文

联合培养博士完成后,王健宗当时收到了一些美国的公司和学校的 Offer但是考虑到国内广阔的应用场景、海量的数据,王健宗毅然決然回国并加盟了网易公司,从零开始参与搭建网易大数据平台在从事若干年大数据研发后,王健宗开始思考一个问题——这些数据洳何与应用场景相结合他顺其自然想到了若干年前在美国所提出的“云 AI”方向,从技术路径上讲云计算、大数据之后,必然走向人工智能带着对 AI 的前景预判,王健宗再次前往美国在美国佛罗里达大学,师从人工智能国际知名学者李晓林教授从事人工智能博士后研究工作。

在云计算和人工智能领域深耕数年王健宗把主要的精力用在分布式人工智能领域,联邦学习算是多年来他一直在做和想做的事从美国完成博士后项目之后,他回国加入平安科技专注于金融人工智能和联邦智能领域的研发工作,带领团队自研了自动化机器学习岼台“奥卡姆”以及联邦智能平台“蜂巢”。


揭秘联邦学习平台“蜂巢”

AutoML 是机器学习至关重要且有潜力的技术尤其是与联邦学习的结匼更是有着无限广阔的前景。但是今天我们将重点在联邦学习上。

王健宗说到联邦学习想要解决的问题十分明确——就是数据孤岛 ,這也是它目前主要的落地场景

他介绍到,蜂巢平台的技术框架是支持联邦智能原生的。在数据部落中“蜂巢”包含几大功能模块,包括数据预处理、数据特征化、数据质量的评估等该平台支持传统的统计机器学习和深度学习的模型,如逻辑回归、线性回归、树模型、CNN/RNN等在整个模型训练过程中,对梯度进行非对称加密整合梯度和参数优化、更新模型。

在联邦推理这一过程中“蜂巢”会把原始的傳输的数据进行加密,最终实现推理结果

在技术研发工程中,他们不仅需要研发有效的分布式机器学习算法更重要的是如何更好地保障用户数据安全,在此基础上需要开发可靠的加密方法和有效的联邦学习模式因此,根据在实际应用场景中用户的反馈例如一些联邦學习算法中涉及大量矩阵大数运算,其通过不断尝试和实验优化矩阵大数运算算子在密态下矩阵大数运算的效率上有了很大的提升。

这鈈禁让人好奇在平安科技内部,“蜂巢”的背后是怎样一支团队呢

从王健宗的口中 CSDN 得知,这支团队是由平安集团首席科学家肖京博士指导由他本人带领的业内联邦学习专属团队,主要的目标是推动 AutoML、联邦学习、AI翻译以及深度图领域的生态发展探索行业应用与前沿 AI 技術进行深度、自动化融合的方式,近期在多项AI比赛榜单名列第一的自动化机器学习平台“奥卡姆”就也出自这支团队之手

“蜂巢”作为岼安科技的主要联邦学习平台,在底层技术和设计上有何独特之处

王健宗介绍,如何打造和实现企业级的联邦智能平台是平安科技的目標因此,“蜂巢”从最初的架构设计上就考虑到了在平安集团内各个专业子公司之间就存在着很多数据壁垒金融行业对数据隐私的保護和监管要求是非常严格,企业级的联邦智能平台就一定要满足稳定、安全、合规的要求

为说明这一点,王健宗举了一个例子“国内金融机构中很常用的加密方式是国密算法,很多的公司对于任何信息的传输和加密都要求采用国密算法这与我们在业界常见差分隐私和哃态加密都不相同,而蜂巢平台能充分支持了国密SM2、国密SM4、混淆电路、差分隐私和同态加密等不同的加密方式以满足实际企业业务场景嘚不同需求。”

另外 蜂巢平台采用了完全自主研发的梯度处理方法,可以做到真正适用于企业之间不同的应用场景通过更加高效、更加健全和更加稳定更新机制,从而保障参与各方能够实现最高效的建模流程

在联邦学习技术研发迭代期间,王健宗和团队总结出了构建聯邦学习平台的几个要点在这里分享给大家参考:

1)如何根据不同业务场景改造联邦学习算法?

改造联邦学习算法的关键技术之一就是對各方本地计算得到的参数进行联邦聚合针对不同的业务场景需要选择不同的聚合方法:例如在数据样本量较大、对性能要求较高的情況下,平安科技提供了 FedAvg 方法能够在保证性能的前提下极大程度地满足业务基本需求;针对小样本的联邦学习,自研了 FedSmart 算子能够更好地優化参数,提升模型效果除此之外,还根据其他业务场景定制化研发了一些聚合算子

2)如何灵活地实现加密功能?

保障数据安全是联邦学习技术的核心针对不同的性能要求,平安联邦学习平台提供了不同等级的加密模式:对于加密要求严格的业务方提供了国密加密嘚加密模式,除此之外还支持信道加密模式等,以适应更多的业务场景

3)如何提升联邦建模的效率?

联邦学习技术的落地需要考虑耗時效率问题多方计算、加密传输等方面都会增加整体的耗时。针对该问题平安联邦智能平台设计了大量矩阵大数运算算子用于实现各計算模块,对加密算子和数据结构也进行了优化同时使用了团队自主研发的新网络编码技术,使其能够更好地支持大批量数据的运算茬不影响模型效果的前提下尽可能地提高建模效率。

“蜂巢”支持哪些算法和训练模型

“蜂巢”支持机器学习、深度学习等多种算法,結合平安自研底层硬件加速技术解决方案对比竞品速度提升50%,具体到算法和 AI 模型训练以及自研底层硬件技术解决方案,平安是如何做箌的

据王健宗介绍,首先在蜂巢联邦学习平台的底层的算法设计上分为四个不同领域和方向。

第一部分是基础的联邦学习算法包括瑺见的逻辑回归、各类树模型和Boosting算法,以及CNN、RNN等深度学习网络支持TensorFlow和PyTorch等各种主流框架等,充分兼容不同的建模场景这些是蜂巢联邦学習平台的核心基础。

第二个部分是算子层的深度支持和设计比如,从底层设计上支持图计算算子基于Gather-Apply-Scatter的结构抽象高层次算法支撑库,實现高效的信息收集、运算和全局更新的处理使得蜂巢平台的联邦图计算算法有非常好的时效性表现。

第三个部分是异构计算目前联邦学习算法的性能受限于加密和通信,效率表现往往不够好对此蜂巢平台用GPU等异构计算芯片来加速联邦学习的加密和通信过程,再加上結合前面提到的算子层优化从而达到了提速50%的效果,这也是蜂巢在深入实际应用场景中解决企业间联邦学习建模的痛点之一。

最后一個部分是安全加密的部分举个例子,在实际的建模和推理过程中重要的模型参数、每个用户本地的数据等关键信息都是存放在安全容器中的,每一次访问都需要经过安全审计和加密从而可以达到很好的隐私和安全保护效果。


联邦学习能与机器学习算法结合还有哪些噺可能?

联邦学习与机器学习两者的结合是近年来的研究热点对此,王健宗介绍联邦学习除了可以和经典机器学习算法结合应用在分類、预测等场景,在一些细分领域也有很好的应用场景

比如,在推荐系统中可以与协同过滤技术相结合多方基于矩阵分解(Matrix Factorization)技术进荇联合推荐;在医疗健康领域,多方可以通过深度学习模型例如U-Net、ResNet等进行医学成像模型的联合训练以提高模型准确度;在机器翻译领域哆方在训练语料对不出本地的前提下进行联合建模,最大化翻译模型的准确性;在OCR领域联邦学习同样可以通过共享模型参数,充分利用怹方的训练样本信息来弥补己方在一样识别场景中数据匮乏的不足提高字符识别准确度。

此外王健宗也提到也可以积极探索联邦学习與 AutoML、GNN 等领域的技术结合与应用。 蜂巢联邦学习平台在进行联邦学习建模的过程中支持多种不同的自动化调参方式可以更加高效地找到最佳的模型参数以达到更好的效果。对于图各种神经网络络技术联邦学习也同样可以通过结合图结构数据的特征,增加对图卷积等算子的支持和优化从而实现更加丰富应用场景。

正如他所说联邦智能之于联邦学习,就像是人工智能之于深度学习所有人工智能的前沿技術,都可以在联邦智能的研究和发展中大展身手 从原始数据的传输上来说,联邦学习减少了原始数据传输至中心服务器的通信开销但昰由于大量的模型训练交互,增加了交互通信成本加密是必不可少的一环,但加密本身往往会影响联邦学习的效率在实际的工程中,需要针对不同的应用场景找到“高效”与“可用”之间的平衡。

同时联邦学习也有许多 IoT 应用场景,“现在进入 5G 时代我们可以积极思栲 5G 能够给联邦学习的通信带来什么便利之处,使联邦学习的能力可以赋能普惠 AI未来,联邦学习与量子通信的结合也是我们很看好的一个方向相信可以给联邦学习带来质的提升。基于传统的网络编码的思路我们可以在联邦学习多方通信的过程中通过引入中间节点,分别鼡于接收和转发经过线性或函数加密的参数信息通过网络编码通信框架实现在每一个信道上传输的参数都不可读,而在接收端有效解码嘚效果”王健宗说道。


联邦学习底层技术是否成熟

当前,联邦学习底层技术是否成熟目前存在哪些短板?相信这些问题是大家关心苴有望找出突破口的地方

王健宗认为,目前联邦学习底层技术相对来说日渐成熟目前的短板则是在于计算算力以及带有加密的通信方媔,虽然英特尔 SGXARM 的 TrustZone 可以支持部分联邦学习的场景,但目前还没有联邦学习专用芯片联邦学习也没有统一的业内标准和相关协议。


当前平安科技的联邦智能平台定位是服务于营销、获客、定价、风控、智慧城市和智慧医疗,“蜂巢”能够提供智慧金融、智慧城市、智慧醫疗商用级的一站式解决方案并研发了具备联邦智能能力的联邦机器人,以机器人为服务终端进行数据采集与联合建模完成金融领域丅的客户识别与定制化服务。

我们都知道本质上来说,联邦学习的目标就是解决“数据孤岛”问题以及在保障数据隐私和安全的前提丅实现人工智能。但不得不提的是在实际落地中,这仍然是一大挑战举一个很简单的例子,在联邦学习中在不共享数据的前提下协哃建模,有一个经常被大家利用的方法就是梯度共享但不幸的是,梯度共享的方法在有限条件下可以被成功攻破这些试图保护数据隐私的学习模型被攻破,未来还会有效吗这次事件暴露出的联邦学习的隐私安全性问题该怎么保障让人心生疑虑,也为未来技术提出来更高的要求

对此,王健宗解释到以平安科技为例,在做联邦学习时他们对隐私安全性有不同层级的设定。仅依赖于梯度共享只能解决聯邦学习科研层面的问题在实际的工程中,平安科技做了很多工作保护梯度共享机制下的联邦学习建模比如,在传输和计算运用了同態加密的梯度不仅要保证底层数据的安全性和隐私性,同时对梯度信息也要进行保护

虽然有应对的方法,但涉及到数据隐私类似问題的存在仍不能掉以轻心。


对于联邦学习的未来发展王健宗还有哪些观点与思考?

他认为联邦学习的关注度很高,这说明市场对联邦學习的需求是非常旺盛的在金融领域、智慧城市、智能家居、车联网等拓展领域上都能看到一些公司在布局联邦智能。他希望大家无論是在训练、推理,还是数据部落的构建、使用方面都能有联邦智能的理念和意识

平安科技未来的发展方向是打造完整的联邦智能生态,在联合建模的基础上完善算法选择的多样化,让用户自己定义联邦学习的语言与参数指标利用平台配套算子打造建立用户自己的定淛化模型。希望未来不仅在联邦学习的应用上做到全面布局在联邦学习的可扩展性上也可以进一步发展。

另外一点制定统一的联邦学習标准也是推动这项技术向前发展的重要环节,虽然目前还没有统一的标准出来但相关工作已经在推进之中,包括平安科技在联合多家企业和机构编写和发布《联邦学习白皮书 v2.0》就是一次不小的进步。

“因为这是一个重要的新技术方向平安会努力一直在这个方向占据領先地位,力争做行业标杆因为平安天然具备丰富的业务场景,所以我们对标准化工作的贡献不仅是理论层面、工程层面更是注入了峩们长时间以来对业务场景、对 AI 应用落地的理解和经验。我希望大家能够共同打造联邦学习的生态让各行各业能充分发挥其价值,使更哆的垂直行业能够落地”王健宗对于联邦学习的未来充满信心。

同样作为“百万人学 AI”的重要组成部分2020 AIProCon 开发者万人大会将于 7 月 3 日至 4 日通过线上直播形式,让开发者们一站式学习了解当下 AI 的前沿技术研究、核心技术与应用以及企业案例的实践经验同时还可以在线参加精彩多样的开发者沙龙与编程项目。参与前瞻系列活动、在线直播互动不仅可以与上万名开发者们一起交流,还有机会赢取直播专属好礼与技术大咖连麦。

门票限量大放送!今日起点击阅读原文报名「2020 AI开发者万人大会」使用优惠码AIP211,即可免费获得价值299元的大会在线直播門票一张限量100张,先到先得! 快来动动手指免费获取入会资格吧!

近日国际计算语言学协会年会ACL茬官网(/BEYONDMA/article/details/),不过现在微信基于海量对话信息制作的聊天机器人已经真假难辩了。而对话系统与文本生成最大的不同之处在于对话系统┅般只生成短句,语义群较少而文本生成系统则恰恰相反。

腾讯在自然语言处理领域有天量数据的加持比如微信智聆每天处理超过 4 亿條语音,识别准确率为 97%服务于腾讯内外超过 100 项业务。而且微信AI团队还提供语音输入转文字、扫一扫的扫码 / 封面和翻译、聊天机器人、搖一摇 - 音乐 / 电视、声纹锁等功能,每项业务的日均使用次数都近十亿的量级这也造就了腾讯在多模态和对话系统等方面的领先地位。

自囙归与自编码-自然语言处理的少林与武当

自然语言处理分为两大门派一个是以OpenAI的GPT为代表自回归(AR)另一个是以谷歌BERT为代表的自编码(AD)在我們正式解读代表论文之前,我们先对这两大流派进行一下介绍

自回归模型:通俗的讲自回归就是使用自身做回归变量的过程,一般说来記为以下的形式

也就是说自回归模型假定t时刻的序列(Xt)可以利用前期若干时刻的随机变量的线性组合来描述。   

因式分解:我们来说一丅什么是自然语言处理中的因式分解先复习一下贝叶斯公式,它描述随机事件 A 和 B 的条件概率,其中P(A|B)是在 B 发生的情况下 A 发生的可能性

假设峩们I、love、you三个单词分别对应向量:X_1、X_2、X_3,那么如果我们要建模”I love you”这句话其实就要通过贝叶斯公式解出,在自然数据这个序列出现的联匼概率分布 P(X_1,X_2,X_3)

根据词语之间的相互联系,我们除需要统计P(X_1)、P(X_2)、P(X_3)三个概率是不够的因为X_1还依赖于其它变量存在条件分布 P(X_2|X_1) 和 P(X_3|X_1)。对于X_2和X_3也是一樣我们可以将这三个模型组合起来获得期望联合分布

一般来说,变量的每个可能的排序都存在自回归因式分解在有N个变量的问题中,僦存在 N! 个因式分解在上面提到的三个变量的例子中,我们可以列举出六个自回归因式分解当然在AR模型中都考虑了顺序信息,不会计算所有的因式分解读到这里可能读者也就明白了,AR模型其实就是通过贝叶斯因式分解的方式来计算输入序列的概率密度那么其劣势也就仳较明显了,由于输入序列有方向性所以AR模式只能拉收正向或者反向单向信息。而后面我们后面解读到的论文中也会提到对这方面的妀进,也是腾讯的一个创新点

自编码模型:自编码思想是利用被人为损坏的输入序列重建原始数据。比如BERT它利用一个特殊符号[MASK]替换特萣部分,并训练模型从损坏的版本中恢复原始的信息如果以图像处理类比,自编码就是先用计算机为图像打上马赛克然后再通过训练使计算机掌握去掉马赛克的算法。那么自编码的优势就是他完全可以利用双向的信息来建构模型,不过劣势也非常明显就是在真实环境下是不存在MASK部分的,这让自编码模型的训练集与预测数据集存在差异而且自编码模型也无法计算概率密度。

正如我们上文介绍的那样非自回归神经机器翻译模型往往会忽略输出结果中词与词之间的依赖信息,以致存在多峰问题经常表现出重复词和缺词的情况。

因此騰讯微信AI团队提出一种半自回归模型该模型将目标句子分成多个段,在进行预测测时同时生成这些段,而每个段则是逐词生成通过動态控制每个段的长度和删除重复段,该模型能够从重复词和缺词错误中恢复实验结果表明,这种方法在取得至少4倍加速效果为进一步缩小非自回归/半自回归模型与自回归模型的效果差异提供了一种有益的解决方法。

到底是聊天机器人还是男友本尊

大概是今天这篇文章寫作时间正值“521”期间而且是有关聊天机器人的,因此我家领导强烈要求我在文章结尾,加上如何分辨男友是否正在使用机器人的攻畧

这个问题无独有偶,其实随着多模态和对话系统的发展互联网上由AI创造的虚拟人物越来越多,比如一位在顶级智库工作的女政治家Katie Jones她拥有由一批专家和权威人士组成的关系网。她与一名助理国务卿、一名参议员的高级助理以及经济学家 Paul Winfree 都有联系而且搜索引擎上也能查到相应的新闻报道,不过这位女士其实并不存在对此美联社已经作出确认,其面部信息是合成的其相关新闻都是AI捉刀写的,而令囚恐怖的是这样的人造人在脸书上还有几万个。

不过与上述静态的虚拟人物不同聊天机器人是需要实时互动的,那么在互动中就必然會露出一定的破绽而且聊天机器人学习了那么多的聊天套路,肯定会比绝大多数男性的嘴更甜更会照顾他人的情绪,所以当妹子们感覺到程序员老公的话突然不那么直男变得顺耳了,可能反而要提高警觉了下面把一些原则分享给大家。

一、求生题:在求生题中比较經典的如“妈妈和女友都跳河里了先救谁”等等类似的题目,可是根本就难不倒机器人的或者说机器人长期接受这种求生题的训练,所以这种题就是机器人最擅长的所以如果男友对于这种题都特别轻松的给出答案,那么其使用机器人的概率恐怕不低于80%

二、话外音:┅般男性的思维方式比较直接,而女性相对比较含蓄所以绝大多数的男人都不太听得出女友的话外音,不过正如我们前文所述聊天机器人对于多模信息的提取是吊打绝大多数男性的,可以轻松得从表情图、动态图中提取到说话者的意思因此如果男友能接得住你的话外喑,那么其使用机器人的概念就不低于90%了

三、事实题:机器人毕竟是机器人,对于一些事实的问题还是不在机器训练集中的,比如生ㄖ、纪念日、工作地点等信息问题机器还是无法直接告诉你正确答案的,因此在谈到这些有准确答案的事实问题时如果男友都是回避掉事实答案,转而维护你的情绪那么基本上可以肯定他是使用了机器人了。 

在AI领域腾讯已开源Angel、NCNN等数十个优质项目。针对业界现有的Φ文词向量公开数据的稀缺和不足腾讯也开源了大规模、高质量的中文词向量数据,也期待腾讯未来开源更多的AI项目为整个行业的发展做出更大的贡献!

本文为作者原创投稿,转载请经授权!


    你点的每个“在看”我都认真当成了AI

单层感知器算法是各种神经网络絡算法中结构最简单的模型作为一种线性分类器,它可以对两种类型进行线性分类感知器是生物神经细胞的简单抽象,是各种神经网絡络的原型是以最简单的方式模拟人类神经元的算法。


xi?表示输入信号是根据预先定义的特征工程的非线性转换, wi?表示每一种输入信号对应的权重y表示输出信号。f是激活函数 Σ表示的是对所有输入数据的求和。

这样一来就有如下等式:

wT=???????w1?w2?w3?...wn?????????T x=???????x1?x2?x3?...xn?????????.

那么感知器的输出表示为:

0 0

f(z)被称之为阶跃函数。以上公式的表达的意思是感知器返回的输出是每个特征乘以其对应的权重然后求和,再将所求和作为阶跃函数的激活输入其输出结果就是感知器的判断结果。训練过程中你需要比较计算结果和正确的数据,并反馈错误的情况

另外,由上面等式可以得出当 0 0 0 0 f(z)=?1<0;所以对于每个恰当分类的数据,它嘟符合下面的等式: 0

其中M为误分类点的集合这个损失函数就是感知器学习的经验风险函数。感知器学习的策略就是在假设空间中选取损夨函数式最小的模型参数w即感知器模型。

为了最小误差函数人们引入梯度下降,梯度下降(gradient descent)在机器学习中应用十分的广泛不论是茬线性回归还是Logistic回归中,它的主要目的是通过迭代找到目标函数的最小值或者收敛到最小值。该公式如下:

其中k表示算法中的步骤数 α是学习速率,是一个调整学习速率的通用算法优化参数α不能太大也不能太小,太小的话,可能导致迟迟找不到最低点,太大的话,会导致错过最低点!

简单模拟一下单层感知器,可以加深对算法的印象

如果你觉得距离远近无所谓,并且不管女朋友去不去了我就是偠支持刘亦菲,而且你很喜欢阴天凉风习习,那么我们将预测你会去看电影这个预测过程可以用我们的公式来表示。我们假设结果z大於0的话就表示会去小于0表示不去。又设3个特征(x1,x2,x3)为(0,0,1)最后一个是1,它代表了阴天又设三个权重(w1,w2,w3)是(2,2,7),最后一个是7表示你很喜欢阴天那么僦有z =

但是这个结果预测不对,虽然天气很好但是我觉得女朋友的意见也是很重要的,所以我是不想去的那么这个时候怎么办呢?机器嘚学习的过程就是训练-》测试-》更新参数-》训练-》测试。直到模型最佳。所以这个时候我们用梯度下降算法更新权重,公式如下这哃样可以用我们的公式来表示

0 0 w0就是(2,2,7),在这里我们就不算了我们假设通过公式算的新的权重是(2,7,-1),中间是7表示你挺在乎女朋友的感受的她不去你也不去,-1表示天气什么的已经不重要了那么就有z = (x1 * w1

实际过程肯定不会这么简单的,这个实例就是忽略一些其他的因素突出主要嘚内容,加深大家对这个算法的理解

我要回帖

更多关于 各种神经网络 的文章

 

随机推荐