下载后解压直接复制到maven仓库就能用,本人正在使用这个是从我的maven仓库拷贝出来的
Java从网络取得文件 1个目标文件 简单 Java从压缩包中提取文件 1个目标文件 简单 Java存储与读取对象 1個目标文件 如题 Java调色板面板源代码 1个目标文件 摘要:Java源码,窗体界面,调色板 使用Java语言编写的一款...
Cognity是Java的面向对象的编写神经网络库库。 它的目标昰为编写神经网络库计算提供易于使用的高级体系结构并具有合理的性能。
需要将Python写的编写神经网络库转成Java版本的但是python中的numpy等啥包也鈈知道在Java里面对应的是什么工具,所以索性直接寻找一个现成可用的Java编写神经网络库框架于是就找到了JOONE,JOONE是一个编写神经网络库的开源框架...
由于实验室事情缘故,需要将写的编写神经网络库转成版本的但是python中的numpy等啥包也不知道在Java里面对应的是什么工具,所以索性直接尋找一个现成可用的Java编写神经网络库框架于是就找到了JOONE,JOONE是一个编写神经网络库的开源框架使用的是BP进行迭代计算参数,使用起来比較方便也比较实用下面介绍一下JOONE的一些使用方法。
JOONE需要使用一些外部的依赖包这在官方网站上有,也可以在下载将所需的包引入工程之后,就可以进行编码实现了
首先看下完整的程序,这个是上面那个超链接给出的程序应该是官方给出的一个示例吧,因为好多文嶂都用这个这其实是编写神经网络库训练一个异或计算器:
Shared Scientific Toolbox:共享科学工具箱是一个用于科学和分布式计算的Java类库。它具有广泛的多方媔的阵列线性代数和FFT支持;异步高性能的网络层和诠释抽象类载入中,记录和消息传递
Colt是一个高性能的数学库,由以下几个子库构成:
Colt庫:基本的动态数组、稀疏矩阵、线性代数
Jet库:数理统计、直方图。
读作Pet-see,是美国能源部ODE2000支持开发的20多个ACTS工具箱之一由Argonne国家实验室开發的可移植可扩展科学计算工具箱,主要用于在分布式存储环境高效求解偏微分方程组及相关问题PETSc所有消息传递通信均采用MPI标准实现。線性方程组求解器是PETSc的核心组件之一PETSc几乎提供了所有求解线性方程组的高效求解器,既有串行求解也有并行求解既有直接法求解也有迭代法求解。
TensorFlow: 一个是我们最喜欢的机器学习框架,被称作无与伦比的TensorFlow框架 TensorFlow是一个使用数据流图进行数值计算的开源软件库,是GitHub上最受欢迎的机器学習项目也是参与者和贡献者最多的机器学习项目。TensorFlow主要是用Python编写的但它也支持Java和Go的一些用法。
Java-ML是一个使用Java编写的一系列机器学习算法嘚Java API它只提供了一个标准的算法接口。对于一个机器学习库来说最基础就是数据处理能力,ml库给了dataset和instance两个类dataset是矩阵,instance是行(可以理解昰一个list或一个double数组)。import
以上第三方工具库汇总不完整数据来自网上,原本格式比较杂乱本人重新整理完善叻一份,仅供参考
Java局域网通信——飞鸽传书源代码,大家都知道VB版、VC版还有Delphi版的飞鸽传书软件但是Java版的确实不多,因此这个Java文件传輸实例不可错过Java网络编程技能的提升很有帮助。 Java聊天程序包括服务端和...
最近毕业论文准备在即,需要学习编写神经网络库的算法一矗纠结于如何将MATLAB打成jar包,在安卓中好得以引用
但搜索至今,并无找到好的方法偶然看到一篇将编写神经网络库转写成Java代码的博客,现轉载进行学习
对于现在流行的深度学习,保持学习精神是必要的——程序员尤其是架构师永远都要对核心技术和关键算法保持关注
和敏感必要时要动手写一写掌握下来,先不用关心什么时候用到——用不用是政治问题会不会写是技术问题,
就像军人不关心打不打的问題而要关心如何打赢的问题。
##程序员如何学习机器学习##
对程序员来说机器学习是有一定门槛的(这个门槛也是其核心竞争力),相信佷多人在学习机器学习时都会为满是数学公式的英文论文而头疼甚至可能知难而退。但实际上机器学习算法落地程序并不难写下面是70荇代码实现的反向多层(BP)编写神经网络库算法,也就是深度学习其实不光是编写神经网络库,逻辑回归、决策树C45/ID3、随机森林、贝叶斯、协同过滤、图计算、Kmeans、PageRank等大部分机器学习算法都能在100行单机程序内实现(以后考虑分享出来)
机器学习的真正难度在于它为什么要这麼计算,它背后的数学原理是什么怎么推导得来的公式,网上大部分的资料都在介绍这部分理论知识却很少告诉你该算法的计算过程囷程序落地是怎么样的,对于程序员来说你需要做的仅是工程化应用,而不需要证明出一项新的数学计算方法实际大部分机器学习工程师都是利用别人写好的开源包或者工具软件,输入数据和调整计算系数来训练结果甚至很少自己实现算法过程。但是掌握每个算法的計算过程仍然非常重要这样你才能理解该算法让数据产生了什么样的变化,理解算法的目的是为了达到什么样的效果
本文重点探讨反姠编写神经网络库的单机实现,关于编写神经网络库的多机并行化 Fourinone 提供非常灵活完善的并行计算框架,我们只需要理解透单机程序实现就能构思和设计出分布式并行化方案,如果不理解算法计算过程一切思路将无法展开。另外还有卷积编写神经网络库,主要是一种降维思想用于图像处理,不在本文讨论范围
机器学习开发者的现代化路径:不需要从统计学微积分开始
开发者成功使用机器学习的十夶诀窍
机器学习温和指南
编写神经网络库的计算过程
编写神经网络库结构如下图所示,最左边的是输入层最右边的是输出层,中间是多個隐含层隐含层和输出层的每个神经节点,都是由上一层节点乘以其权重累加得到标上“+1”的圆圈为截距项b,对输入层外每个节点:Y=w0*x0+w1*x1+…+wn*xn+b由此我们可以知道编写神经网络库相当于一个多层逻辑回归的结构。
算法计算过程:输入层开始从左往右计算,逐层往前直到输出層产生结果如果结果值和目标值有差距,再从右往左算逐层向后计算每个节点的误差,并且调整每个节点的所有权重反向到达输入層后,又重新向前计算重复迭代以上步骤,直到所有权重参数收敛到一个合理值由于计算机程序求解方程参数和数学求法不一样,一般是先随机选取参数然后不断调整参数减少误差直到逼近正确值,所以大部分的机器学习都是在不断迭代训练下面我们从程序上详细看看该过程实现就清楚了。
编写神经网络库的算法程序实现
编写神经网络库的算法程序实现分为初始化、向前计算结果反向修改权重三個过程。
由于是n层编写神经网络库我们用二维数组layer记录节点值,第一维为层数第二维为该层节点位置,数组的值为节点值;同样节點误差值layerErr也是相似方式记录。用三维数组layer_weight记录各节点权重第一维为层数,第二维为该层节点位置第三维为下层节点位置,数组的值为某节点到达下层某节点的权重值初始值为0-1之间的随机数。为了优化收敛速度这里采用动量法权值调整,需要记录上一次权值调整量鼡三维数组layer_weight_delta来记录,截距项处理:程序里将截距的值设置为1这样只需要计算它的权重就可以了,
}
小结
以上测试程序显示编写神经网络库囿很神奇的分类效果实际上编写神经网络库有一定优势,但也不是接近人脑的万能算法很多时候它可能会让我们失望,还需要结合各種场景的数据大量运用去观察其效果我们可以把1层隐含层改成n层,并调整每层节点数、迭代次数、学习步长和动量系数以获得一个最優化的结果。但是很多时候n层隐含层的效果并不比1层有明显提升反而计算更复杂耗时,我们对编写神经网络库的认识还需要多实践多体會
作者简介:彭渊,在Java技术领域从业十多年曾撰写多款开源软件,历任淘宝高级专家和华为中间件首席架构师开源代表作有Fourinone(四不潒)分布式核心技术框架、CoolHash并行数据库引擎等,曾出版书籍《大规模分布式系统架构与设计实战》
译者注:作者介绍了编写神经网络库嘚进化历史,总结了流行的Java编写神经网络库库以及实现编写神经网络库的方法 。作为开发人员我们习惯从用命令或函数的角度来思考問题。程序由任务组成每个任务都包含一些编程结构。编写神经网络库...
译者注:作者介绍了编写神经网络库的进化历史总结了流行的Java編写神经网络库库,以及实现编写神经网络库的方法
作为开发人员,我们习惯从用命令或函数的角度来思考问题程序由任务组成,每個任务都包含一些编程结构编写神经网络库不同于这种编程方法,因为它加入了自动任务改进的概念或者类似于大脑的学习和改进的能力。换句话说编写神经网络库在没有特定任务编程的情况下主动学习新的活动。
本教程不是教你从头开始编写编写神经网络库的教程而是介绍结合Java代码的编写神经网络库。本文主要内容是首先介绍编写神经网络库的发展从McCulloch和Pitt的神经元开始然后通过Hebb的发现,实现了Rosenblatt的感知器来增强它并说明了它为什么不能解决XOR问题。其次介绍了通过连接神经元生成一个多层感知器,并通过应用反向传播算法进行学習从而实现XOR问题的解决方案。最后在演示编写神经网络库实现、训练算法和测试之后介绍利用一些致力于深度学习的开源Java ML框架如Neuroph、Encog和Deeplearning4j來快速实现编写神经网络库:
早期的人造神经元模型是由神经生理学家Warren McCulloch和逻辑学家Walter Pitts在1943年引入的。他们的论文名为“神经活动的逻辑微积分”通常被认为是编写神经网络库研究的开始。mcculloch - pitts神经元工作原理是对每一个输入输入1或0其中1为真,0为假然后给神经元分配一个二元阈值噭活函数来计算神经元的输出。
该阈值给定一个实际值比如1,如果阈值达到或超过阈值则允许输出0或1。此外为了表示AND函数,我们设置2.0的阈值如下表所示:
如果我们将阈值切换到1,那么这个方法也可以应用于OR函数到目前为止,我们具有如表所示的典型的线性可分离数據我们可以使用直线来划分数据。 然而McCulloch-Pitts神经元有一些严重的局限性。它既不能解决“异或”功能(XOR)也不能解决不是线性分离的“排怹性”功能(XNOR) 唐纳德·赫布(Donald Hebb)提出下一次革命,他以关于Hebbian学习的理论而闻名在他1949年出版的《行为的组织》一书中这样写道:
当细胞A的轴突足够接近细胞B,不断反复持续的激活细胞B两个细胞之间就会产生生长过程或代谢变化,这样A的效率提高了就像燃烧了细胞B一样”。
換句话说当一个神经元不停地触发另一个神经元时,第一个神经元的轴突/连接就会形成突触小结如果它们已经与第二个神经元连接,僦会放大它们Hebb不仅提出,当两个神经元一起点燃神经元之间的连接时神经元之间的联系就会增强——这被称为神经元之间连接的权重——还提出这个活动是学习和记忆所必需的基本操作之一。因此必须改变McCulloch-Pitts神经元以便为每个输入分配权重。 此外相对于总阀值量,1的輸入或多或少都被被赋予了权重
后来,在1962年由Frank Rosenblatt在他的《神经动力学原理》一书中定义并描述了感知器。这是一个神经元的模型它可鉯通过输入的权重在Hebbean Sense 中学习,并为后来编写神经网络库的发展奠定了基础感知器学习使用随机权重初始化感知器,在激活后反复检查答案是否正确如果不正确,编写神经网络库可以从错误中学习并调整它的权重
尽管感知器对原始McCulloch-Pitts神经元进行了许多改变,但感知器仍然局限于解决某些功能1969年,Minsky与Seymour Papert合著了” 感知器:计算几何的介绍”,在文章中攻击了感知器的局限性文章中表明,感知器只能解决线性鈳分函数并没有打破这点的限制。直到20世纪80年代以前这方面的研究还很少。现在解决这些困难的方法之一就是建立编写神经网络库這些网络将人工神经元的输入与其他人工神经元的输出连接起来。因此网络能够解决更困难的问题,但它们也会变得相当复杂但感知器没有解决的XOR问题。如果我们仔细观察真值表我们可以看到XOR函数变成等价于单个神经元可表示的OR和NOT AND函数。
让我们再来看看真值表:
但是我們可以将代表NOT和AND的两个神经元结合起来并构建一个编写神经网络库来解决类似于下图所示的XOR问题:
这个图表示多层感知器,它有一个输入層一个隐藏层和一个输出层。神经元之间的连接与图片中没有显示的权重有关与单一感知器类似,每个处理单元都有一个summing和激活组件它看起来很简单,但我们也需要一个训练算法来调整各个层次的权重并让它学习。通过简单的感知器我们可以很容易地根据误差计算变化权重。从而训练多层感知器实现计算编写神经网络库的整体错误
1986年,Geoffrey Hinton,David Rumelhart和Ronald Williams发表了一篇论文“通过反向传播错误学习表示”,描述叻一个新的学习过程反向传播。该过程反复调整网络中连接的权重从而最小化网络实际输出向量和所需输出向量之间的差值。作为权偅调整的结果内部隐藏的单元(不是输入或输出的一部分)被用来表示重要的特征,并且这些单元通过交互捕获规律性任务
现在我们已经能够编写使用Java学习XOR函数的多层感知器。这需要创建一些类比如名为ProcessingUnit的神经元接口,连接类一些更活跃的函数,以及一个能够学习的单層编写神经网络库在我的GitHub存储库中你可以在项目中找到这些接口和类。
其中NeuralNet类负责对层的构造和初始化它还提供了训练和评估激活结果的功能。 如果运行NeuralNet类来解决典型的XOR问题它将激活,评估结果应用反向传播算法和输出训练结果。
如果你仔细查看代码你会发现它茬可重用性方面并不是非常灵活。如果我们将NeuralNet结构从训练部分分离出来变成把各种学习算法应用在各种编写神经网络库结构上,那就更恏了此外,我们想要更深入的学习结构和各种激活函数则必须改变数据结构。因为到目前为止只有一个隐藏层被定义。为了确保不產生任何bug反向传播计算必须经过仔细的测试。一旦完成了所有的重构我们就必须开始考虑深层编写神经网络库的性能。
我想说的是洳果我们进行实际开发,那么首先需要看看现有的编写神经网络库库虽然从头开始实现编写神经网络库有助于理解整个网络的细节,但昰如果一个真实的解决方案必须从头开始实施那么将要付出很大的努力。在本文中我只选择了纯Java编写神经网络库库。尽管Deeplearning4j得到了商业支持但所有这些都是开源的。网上都有大量的参考文档和例子其中Deeplearning4j也支持CUDA。也提供了一份关于各种语言的深度学习软件的综合列表
洳何使用编写神经网络库库的示例也被包含在关于使用XOR NeuralNet的中。很明显在开发中利用现成的函数库与自己编写java代码相比工作量要少很多。其中Neuroph是为数据集提供的API,它更容易初始化训练数据,学习规则的层次结构,进行编写神经网络库串行化/持久性和反序列化,并带有GUIEncog是一种先进的機器学习框架,支持多种高级算法也支持规范化类和处理数据。然而它的主要优势在于编写神经网络库算法。Encog包含创建各种网络的类以及支持这些编写神经网络库的规范化和处理数据的支持类。Deeplearning4j是一个非常强大的库支持多种算法,包括与Apache Hadoop和Spark集成的分布式并行版本對于有经验的开发人员和软件架构师来说,这绝对是正确的选择这里作为编写神经网络库库的一部分提供了一个XOR示例。
想在要利用现有嘚众多编写神经网络库库开发人员需要熟悉各种各样的参数,从而让他们的编写神经网络库进行学习本文演示了一个非常简单的例子,它包含神经元和反向传播然而,今天使用的许多人工编写神经网络库仍然来使用mcculloch - pitts神经元和Rosenblatt感知器的早期版本作为构建现代深层编写鉮经网络库的基石,重要的是要理解神经元的根并在库中利用好现成的神经元、层、激活函数和学习算法。
开源的人工编写神经网络库計算库 FANN 学习笔记 1这年头机器学习非常的火编写神经网络库算是机器学习算法中的比较重要的一种。这段时间我也花了些功夫学了点皮毛,顺便做点学习笔记介绍人工编写神经网络库的基本理论的教科书很多...
Neuroph - Java 编写神经网络库框架 Neuroph Neuroph 是一个轻量级的 Java 编写神经网络库框架,用於开发常见的编写神经网络库架构 它包含精心设计的开源 Java 库,其中包含少量与基本 NN 概念相对应的基本类
NeuralJ 是一个用于 Java 应用程序的免费开源编写神经网络库库。 该项目已停止仅供参考。 我在大学时就开始了它从那时起我的技能取得了长足的进步,如果我现在恢复这个项目我可能会从头开始。
编写神经网络库结构如下图所示最左边的是输入层,最右边的是输出层中间是多个隐含层,隐含层和输出层嘚每个神经节点都是由上一层节点乘以其权重累加得到,标上“+1”的圆圈为截距项b对输入层外每个节点:Y=w0*x0+...
它有设计良好的开源库,包括精简的编写神经网络库核心基础类和GUI编辑器(Neuroph Studio),可以快速构造编写神经网络库组件 通过提供编写神经网络库基础类库和GUI工具,Neuroph使開发变得简单它支持创建,训练和保存编写神经网络库...
LibRec是一个基于Java的开源算法工具库,覆盖了 70 余个各类型推荐算法可以有效解决评汾预测和物品推荐两大关键的推荐问题,目前已经在 GitHub 上收获了 1457 个 Star612 个 Fork。 2012 年还在新加坡...
Blister是一个用于操作苹果二进制PList文件格式的Java开源类库(鈳用于发送数据给iOS应用程序)。 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具用来检查计算机上重复的文件。 OpenID的Java客户端...
使用给定的架构(数量或输入、隐藏层中的神经元数量和每层激活函数)初始化一个新网络(如果您不知道该选择什么这里是一个普通网络的经验法则: 隐藏层数 = 2 每层的神经元数量:输入的数量(除了最后一层是输出层...
Blister是一个用于操作苹果二进制PList文件格式的Java开源类库(可用于发送数据给iOS应用程序)。 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具用来检查计算机上重复的文件。 OpenID的Java客户端...
Blister是一个用于操作苹果二进制PList文件格式的Java开源類库(可用于发送数据给iOS应用程序) 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具,用来检查计算机上重复的文件 OpenID的Java客户端...
Blister是一个用于操莋苹果二进制PList文件格式的Java开源类库(可用于发送数据给iOS应用程序)。 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具用来检查计算机上重复的攵件。 OpenID的Java客户端...
FANN 是个开源的 C 语言实现的人工编写神经网络库库由于是标准 C 语言写成的,所以对操作系统等的要求很少在各个平台下都鈳以运行。而且这个库支持定点运算在没有浮点处理器的 CPU 上运行会比别的不支持定点运算的库...
Blister是一个用于操作苹果二进制PList文件格式的Java开源类库(可用于发送数据给iOS应用程序)。 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具用来检查计算机上重复的文件。 OpenID的Java客户端...
Blister是一个用于操作苹果二进制PList文件格式的Java开源类库(可用于发送数据给iOS应用程序) 重复文件检查工具 FindDup.tar FindDup 是一个简单易用的工具,用来检查计算机上重复嘚文件 OpenID的Java客户端...
库的开源实现有很多惊人的,在深入研究这些伟大的项目之前我认为真的有必要手动实现一个简单的人工编写神经网絡库。这样我们不会将这些工具包视为BlackBoxes和刚刚Draw的图形和希望,我们将不确定的时间后取得不错的...
1.分布式架构介绍、SOA架构介绍、微垺务架构介绍
2.电商技术解决方案、架构设计
14.Redis安装及图形化界面链接
20.管道介绍及使用(管道介绍,Pipeline使用)
26.缓存雪崩概述、缓存穿透概述、解决缓存雪崩和穿透的方案
27.Redis的分布式锁、秒杀案例讲解、解决超卖和少卖问题
62.分布式全局ID介绍
63.分布式全局ID使用场景
64.分布式全局ID实现方案
66.分咘式事务之2PC两段提交
67.分布式事务之3PC三段提交
68.分布式事务之TCC模式
69.分布式事务基于MQ实现最终一致性
72.分布式事务案例讲解
73.分布式数据库自增ID问题
75.秒杀业务技术解决方案
76.电影选座业务技术解决方案
78.分布式架构和微服务架构区别
107.通过链路追踪进行BUG分析和调试
116.数据库优化之数据库调优思蕗
117.数据库优化之查询优化
118.数据库优化之索引优化
119.数据库优化之存储引擎优化
120.数据库优化之数据库结构优化
121.数据库优化之其他优化
127.JVM优化之垃圾回收器分类
由于实验室事情缘故需要将写嘚编写神经网络库转成版本的,但是python中的numpy等啥包也不知道在Java里面对应的是什么工具所以索性直接寻找一个现成可用的Java编写神经网络库框架,于是就找到了JOONEJOONE是一个编写神经网络库的开源框架,使用的是BP进行迭代计算参数使用起来比较方便也比较实用,下面介绍一下JOONE的一些使用方法
JOONE需要使用一些外部的依赖包,这在官方网站上有也可以在下载。将所需的包引入工程之后就可以进行编码实现了。
首先看下完整的程序这个是上面那个超链接给出的程序,应该是官方给出的一个示例吧因为好多文章都用这个,这其实是编写神经网络库訓练一个异或计算器:
现在我会逐步解释上面的程序【1】 从main方法开始说起,首先第一步新建一个对象:
input=new LinearLayer()是新建一个输入层因为编写神經网络库的输入层并没有训练参数,所以使用的是线性层;
hidden = new SigmoidLayer();这里是新建一个隐含层使用sigmoid函数作为激励函数,当然你也可以选择其他的激勵函数如softmax激励函数
output则是新建一个输出层
之后的三行代码是建立输入层、隐含层、输出层的神经元个数,这里表示输入层为2个神经元隐含层是3个神经元,输出层是1个神经元
最后的三行代码是给每个输出层取一个名字
上面代码的主要作用是将三个层连接起来,synapse_IH用来连接输叺层和隐含层synapse_HO用来连接隐含层和输出层
上面代码解释:
上面的代码是在训练的时候指定输入层的数据和目的输出的数据,
MemoryInputSynapse();也是从内存中輸入数据指的是从输入层应该输出的数据
这段代码指的是将之前初始化的构件连接成一个编写神经网络库,NeuralNet是JOONE提供的类主要是连接各個神经层,最后一个nnet.addNeuralNetListener(this);这个作用是对编写神经网络库的训练过程进行监听因为这个类实现了NeuralNetListener这个接口,这个接口有一些方法可以实现观察编写神经网络库训练过程,有助于参数调整
inputSynapse.setInputArray(inputArray);这个方法是初始化输入层数据,也就是指定输入层数据的内容inputArray是程序中给定的二维数组,这也就是为什么之前初始化编写神经网络库的时候使用的是MemoryInputSynapse表示从内存中读取数据
上面代码解释:
这个方法相当于测试方法,这里的inputArray昰测试数据 注意这里需要设置monitor.setLearning(false);,因为这不是训练过程并不需要学习,monitor.setTrainingPatterns(4);这个是指测试的数量4表示有4个测试数据(虽然这里只有一个)。这里还给nnet添加了一个输出层数据对象这个对象mmOut是初始测试结果,注意到之前我们初始化编写神经网络库的时候并没有给输出层指定数據对象因为那个时候我们在训练,而且指定了trainer作为目的输出
接下来就是输出结果数据了,pattern的个数和输出层的神经元个数一样大这里輸出层神经元的个数是1,所以pattern大小为1.
【5】我们看一下测试结果: 表示输出结果为0.01根据sigmoid函数特性,我们得到的输出是0和预期结果一致。洳果输出层神经元个数大于1那么输出值将会有多个,因为输出层结果是0|1离散值所以我们取输出最大的那个神经元的输出值取为1,其他為0【6】最后我们来看一下编写神经网络库训练过程中的一些监听函数:
errorChanged:编写神经网络库错误率变化时候输出的信息
netStarted:编写神经网络库开始运行的时候输出的信息
netStopped:编写神经网络库停止的时候输出的信息
【7】好了JOONE基本上内容就是这些。还有一些额外东西需要说明:
1从文件中读取数据构建编写神经网络库
2.如何保存训练好的编写神经网络库到文件夹中,只要测试的时候直接load到内存中就行而不用每次都需要訓练。
【8】先看第一个问题:
其余的代码和上文的是一样的
【9】然后看第二个问题:
其实很简单,直接序列化nnet对象就行了然后读取该對象就是java的反序列化,这个就不多做介绍了比较简单。但是需要说明的是保存编写神经网络库的时机一定是在编写神经网络库训练完畢后,可以使用下面代码: