在一起学围棋入门怎么卡?

目标:发展听力,培养注意力和记忆力。

方法:妈妈做饭的时候,爸爸带着宝宝在客厅里玩。爸爸可让宝宝仔细听听妈妈在厨房里的声音,和宝宝玩猜猜妈妈在干什么的游戏。如打开水龙头哗哗声,油烟机的隆隆声,菜下锅的吱啦声……等等。爸爸还可以带着宝宝去看妈妈做饭,验证这些声音的来源。

提示:这个游戏也可以用有意识制造声音的办法来进行。妈妈躲在一块大毛巾后面,制造一些常见的声音,让宝宝猜猜妈妈躲在后面干什么。这样就更具有游戏性,趣味性也更强。

目标:提高注意力和记忆力。

方法:躺在床上的时候,可以玩一个安静的游戏,考考宝宝的记忆力。妈妈对宝宝说:“现在我要说几种动物的名称,看你能不能记得住。”然后妈妈开始说:“猴子—金鱼—狮子”然后让宝宝重复说一遍。妈妈又说:“大象—狐狸—公鸡—猴子”然后再让宝宝重复说一遍。

提示:做这个游戏要循序渐进。从三种动物名称开始,逐步向四种、五种深入,每一水平上多重复几次。这一时期的孩子经过训练能复述出五种名称。要注意的是,妈妈在说这些动物名称的时候,每个词之间都要有一些间隔,并且要说得慢一些,尽量说清晰准确,同时也要求宝宝在复述时有所间隔。另外动物的名称也可以用其他宝宝熟悉的事物来替代。

目标:提高对数的认识,发展想象力。

方法:准备三张16开的白纸,在纸上画上如图所示方形,并把中间的“ ”部分剪掉。妈妈拿起第一张纸遮住脸,从洞中露出嘴让宝宝看,同时问:“宝宝看见什么了?”在把洞贴在鼻子上:“这回又看见什么了?”还可露出手指、耳朵、眼睛等。接着把纸交给宝宝,让他对着镜子照样做,一边做一边说“一张嘴”“一个鼻子”等等。

提示:等宝宝玩熟练以后,再教他玩第二、第三张纸型,分别露出两只眼睛和一个鼻子等。还可以准备两张同样的纸型,妈妈和宝宝各一张。然后一个人做,一人学。

目标:训练宝宝嗅觉的灵敏性。

方法:妈妈在家里找一些宝宝比较熟悉的,有着特殊气味的东西,如醋、香油、酒精、肥皂、茶叶、樟脑丸、苹果等。蒙上宝宝的眼睛,把准备好的东西一一放在宝宝的鼻子底下,让他闻一闻以后,分辨这些气味,说出都是什么东西。

提示:在做这个游戏前,妈妈先想一想,宝宝平日里有没有闻这些气味的经历,如果没有,就必须先补上这一课。在日常生活中,凡是有气味的东西,都应该有意识地让宝宝闻一闻,并告诉宝宝,这种气味的特点是什么,这能极大地丰富宝宝的感性经验,提高他的认知能力。

目标:发展想象力和创造力。

方法:先让宝宝画一个圆圈,然后问:“宝宝画的是什么?”让宝宝充分想象,类似的事物说得越多越好。如“皮球”、“饼干”、“镜子”、“盖子”、“太阳”等等。爸爸画出一个三角形或其他形状,再问宝宝像什么。

提示:如果可能的话,爸爸妈妈最好在宝宝想象的基础上,给这些图形添画,如圆形上添上绳子为气球,添上光芒即为太阳,添上五官即为脸形,等等。这样可以进一步提高宝宝的游戏积极性,激发他的想象力和创造力。

目标:培养观察力和记忆力。

方法:拿出三四件宝宝熟悉的玩具,把它们排列在桌子上。让宝宝看看桌上有些什么,接着妈妈用一块大毛巾把玩具盖住,然后再问宝宝:“桌上有些什么玩具?”让宝宝根据记忆说出玩具的名称。

提示:如果宝宝可以的话,还可以要求宝宝按顺序说出玩具的名称,这样宝宝不仅要记住物品的名称,还要记住物品间的排列顺序,游戏难度就增大了。随着宝宝观察记忆力的增长,可以不断增加物品的品种和数量。

目标:学习认识各种颜色,发展颜色辨别能力,培养观察力。

方法:找一些正方形的硬纸块,贴上或涂上红、黄、绿、蓝、咖啡、黑、白、灰、紫、粉红等多种颜色,每种颜色准备两个色块。将这些色块混合后两成两份,一人拿一份。妈妈拿出一张色块问宝宝:“你有这种蓝颜色的吗?”或“请给我一张红色的”请宝宝通过对比和分辨这些色块,把颜色相同的色块找到一起。

提示:通过玩色块游戏,能使儿童学会命名颜色,给颜色配对,提高颜色的类分能力。这种游戏的难度主要来源于颜色的差异。颜色差异越大,游戏就越容易,颜色差异越小,游戏的难度就越大。

目标:发展观察力和记忆力。

幼儿园课程游戏化的本质在于提高学习效率。幼儿园游戏能够提高幼儿的创造性思维能力。广大家长应该尊重幼师,配合幼儿园的工作,实现“家园”互动。如果你是一名幼师,你会开展什么幼儿园游戏呢?经过搜索和整理,小编为大家呈现“幼儿园区域游戏:儿童象棋——《动物齐欢聚》”,仅供参考,大家一起来看看吧。

原始棋:象棋整合后游戏棋:动物聚会

1、通过学习儿童象棋,让幼儿了解一些常见小动物的生活环境、习性及它们的特殊本领。

2、懂得关爱小动物,能用实际行动表达对小动物的爱护。

棋子、棋盘:心形代表会跳的动物,飞机代表会飞的动物,汽车代表能走跑的动物。

甲方代表:红色与对方不同的棋子(如:大雁、天鹅)乙方代表:绿色与对方不同的棋子(如:老鹰、鸽子)

甲乙双方各执(小班五枚、中班七枚、大班九枚)不同的能走跑、会飞、会跳的棋子,双方以多种形式决定谁先行,一方边走边说:“大雁会飞或蝗虫会跳”另一方边走边说:“老鹰会飞或白兔会跳,每次从原点开始向前只走一步,当一方棋子先到小河时,会飞会跳的动物直接跳到河对岸,能走跑的只能从小桥上通过,最后谁的棋子先到对方摆棋的地点为赢,反之则输。

编辑还为您精选准备了专题,希望您能喜欢!

上一篇文章提到了数据挖掘、机器学习、深度学习的区别:

深度学习具体的内容可以看这里:

笔记:神经网络的研究,因为人工智能的一位大牛Marvin Minsky的不看好,并且出书说明其局限性,而出现二十年的长期低潮。

它的意思是,当你表达一个概念的时候,不是用单个神经元,一对一地存储定义; 概念和神经元是多对多的关系: 一个概念可以用多个神经元共同定义表达, 同时一个神经元也可以参与多个不同概念的表达.
举个最简单的例子, 一辆 "大白卡车",如果分布式地表达,一个神经元代表大小,一个神经元代表颜色,第三个神经元代表车的类别. 三个神经元同时激活时,就可以准确描述我们要表达的物体.

分布式表征,和传统的 局部表征 (localized representation) 相比,存储效率高很多. 线性增加的神经元数目,可以表达指数级增加的大量不同概念.

分布式表征的另一个优点是,即使局部出现硬件故障,信息的表达不会受到根本性的破坏.

这个理念让 Geoffrey Hinton 顿悟, 使他四十多年来, 一直在神经网络研究的领域里坚持下来没有退缩.

九十年代末, 神经网络研究遇到的困境,除了慢,还是慢.

抛开计算速度的因素,传统神经网络的反向传播算法,捉虫时极为困难,一个根本的问题叫做所谓 vanishing gradient problem (梯度消失问题).

简单的说, 就是成本函数 (cost function)从输出层反向传播时, 每经过一层,梯度衰减速度极快, 学习速度变得极慢, 神经网络很容易停滞于局部最优解而无法自拔. 这就像原始部落的小混混,山中无老虎时,在本地称王称霸很舒服. 但任何关于"外面的世界很精彩"的信息, 在落后的层层传播机制中被噪音混淆淹没了. 小混混一辈子很开心, 没有意识到外面的世界有多大,

支持向量机 (SVM) 技术在图像和语音识别方面的成功, 使得神经网络的研究重新陷入低潮.

SVM 理论上更加严谨完备, 结果重复性好, 上手简单, 得到主流学术界的追捧.

计算神经科学研究者, Sebastian Sung (现为普林斯顿大学教授), 回答道, "喔, 因为我们有点古怪. 如果CIFAR 要跳出自己的舒适区,寻找一个高风险,极具探索性的团体,就应当资助我们了!"

最终 CIFAR 同意从2004年开始资助这个团体十年,总额一千万加元. CIFAR 成为当时, 世界上唯一支持神经网络研究的机构.

Hinton 拿到资金支持不久,做的第一件事,就是先换个牌坊.

Hinton 的同事, 此后时不时会听到他突然在办公室大叫, "我知道人脑是如何工作的了!".

在这篇论文里, Hinton 在算法上的核心,是借用了统计力学里的"玻尔兹曼分布"的概念 (一个微粒在某个状态的几率,和那个状态的能量的指数成反比, 和它的温度的倒数之指数成反比), 使用所谓的"限制玻尔兹曼机" (RBM)来学习.

RBM 引入了统计力学常用的概率工具. 而在七十年代, 概率和不确定性恰恰是主流的人工智能的研究者极为痛恨的.

RBM 相当于一个两层网络,同一层神经元之间不可连接 (所以叫 "限制"), 可以对神经网络实现"没有监督的训练" (unsupervised training). 深信度网络就是几层 RBM 叠加在一起.

略掉技术细节, RBM 可以从输入数据中进行预先训练, 自己寻找发现重要的特征, 对神经网络连接的权重进行有效的初始化. 这属于一种叫做特征提取器 (feature extractor)的神经网络, 也称自动编码器 (autoencoder).

经过 RBM 预先训练初始化后的神经网络,再用反向传播算法微调,效果就好多了.

Hinton 后来指出, 深度学习的突破,除了计算蛮力的大幅度提高以外,聪明有效地对网络链接权重的初始化也是一个重要原因.

Hinton 的论文里,经过六万个MNIST 数据库的图像培训后, 对于一万个测试图像的识别错误率最低降到了只有 /p/?refer=wangchuan

主流学术界的研究者,大多注重于在算法上的渐进式提高, 而轻视计算速度和用于训练的数据规模的重要性.

孔丘老师早在两千多年前, 就高瞻远瞩的为深度学习指明了方向: "学而不思则罔, 思而不学则殆".

用深度学习的语言来说,就是, "光有大数据,算得不快,则还是迷惘 ; 光算得快, 而没有大量的数据来训练,则还是疲倦无所得".
2007年之前, 用GPU编程,缺乏一个简单的软件接口. 编程繁琐,捉虫困难.这在 07年 Nvidia 推出 CUDA 的GPU 软件接口后才真正改善.
论文模型里的参数总数 (就是各层不同神经元之间链接的总数),达到一亿,与之相比, Hinton 2006年的论文里用到的参数数目,只有一百七十万.
论文结果显示,使用GPU运行速度和用传统双核CPU相比, 最快时要快近七十倍. 在一个四层, 一亿个参数的深信度网络上,使用GPU把程序运行时间从几周降到一天. 

把训练神经网络的图像,刻意通过旋转, 放大缩小和弹性形变等方式进行改变.这样用于训练的图像数目大大增加. 使用 GPU后,改变六万张训练图像的计算速度从93秒降到了9秒钟, 快了十倍. 不断用计算变形实现的图像, 等价于一个数量无限的训练数据库.

论文结果显示,一个六层, 拥有一千两百万个参数的神经网络模型,经过两个小时的训练后,在测试图像上的错误率就降到1%. 经过114个小时训练后,模型的测试错误率更是降到了 /p/?refer=wangchuan

计算速度和数据规模的大幅度提高,也引导出更多算法上的改进.

在网络构架上,一些算法更多地借鉴人脑认知的成功经验: 多提高效率, 少做无用功. 多闭目养神,少乱说乱动. 多关注主要矛盾, 少关心细枝末节.

2003年纽约大学神经科学中心的 Peter Lennie 在论文中指出,人脑的神经元,一般最多 1-4%的比例, 可以同时处于激活状态. 比例更高时, 大脑则无法提供相应的能量需求.

最典型的传统激励函数,sigmoid function, 输出值在 0 和 1 之间, 也就意味着神经元平均下来, 每时每刻都在使用一半的力量.

这种高强度能量需求,对于普通生物体而言,是无法持续的.

鳄鱼90%的时间是一动不动的, (一个近距离观察者常会把它误认为是石雕.) 剩下5%的时间用于求偶交配, 5%的时间用于觅食.

鳄鱼的低能耗绿色生活方式,使它成为两栖动物界的寿星.虽然野生鳄鱼的平均寿命缺乏严格科学的统计,但是被捕获后人工饲养的鳄鱼中,有不少个体,记录在案的寿命超过了七十岁.

RELU 的优势还有下面三点:

  1. 传统的激励函数,计算时要用指数或者三角函数,计算量要比简单的RELU 至少高两个数量级.

  2. RELU 的导数是常数, 非零即一, 不存在传统激励函数在反向传播计算中的"梯度消失问题".

  3. 由于统计上,约一半的神经元在计算过程中输出为零,使用 RELU 的模型计算效率更高,而且自然而然的形成了所谓 "稀疏表征" (sparse representation), 用少量的神经元可以高效, 灵活,稳健地表达抽象复杂的概念.

神经网络计算, 另一个常为人诟病的问题,是过度拟合 (overfitting).

所谓过拟合,也就是说机器学习的太好了,把一些不太一般的特性都学习到了。

一个拥有大量自由参数的模型,很容易通过调试,和训练数据吻合.但这并不意味着,这就是个好模型.

美国数学家冯纽曼 (John Von Neumann) 曾说, "给我四个参数,我的模型可以拟合一个大象. 给我五个参数, 我可以让它扭动它的鼻子."
神经网络模型的自由参数,现在往往超过一亿.如果说四个参数可以拟合一个大象的话,对于全世界总数不到一百万的大象来说,实在是游刃有余.
一个模型好坏的试金石,不在于和现有数据的拟合度, 而在于它是否可以在全新的情况和数据面前,做出正确的判断和预测.

解决这个问题的算法上的革新, 启迪又是来自生物界,来自有性繁殖和无性繁殖的对比.

这个数据库建立之初,包含了三百二十万个图像. 它的目的, 是要把英文里的八万个名词,每个词收集五百到一千个高清图片,存放到数据库里.最终达到五千万以上的图像.

2012年神经网络模型在ImageNet 竞赛中的突破,引起了工业界强大的兴趣.

Hinton 教授和他的两个研究生, Alex Krizhevsky 和 Ilya Sutskever, 2012 年底成立了一个名叫 DNNresearch (深度神经网络研究)的公司, 三个月后就被谷歌以五百万美元收购. Hinton 从此一半时间留在多伦多大学,另外一半时间在硅谷. 另外两位研究生则成为谷歌的全职雇员.

原来在纽约大学教书的杨立昆 (Yann LeCun), 2013 年底被脸书聘请为其人工智能研究院的总管.

曾在斯坦福大学和谷歌工作的吴恩达 (Andrew Ng), 2012年创立了网上教育公司 Coursera, 2014年五月被百度聘任为首席科学家, 负责百度大脑的计划.

人工智能的研究,并不止步于对人脑的简单模仿.

人脑的生理结构,过去二十万年没有大的变化.机器的运算速度, 则每十年以 100-1000 倍的增速在发展.这种增速,又促进更多新创的算法在摸索中涌现.

仅仅是三年之后, 一群80后的中国学者,又把图像识别的成就,推到一个全新的高度,一个超越受过良好训练的正常人的识别能力的新高度.

人工智能的海啸正排山倒海般袭来.

迄今为止我们讨论的神经网络模型, 都属于一种叫做前馈网络 (feedforward network) 的东西. 简而言之, 前馈网络, 信息从底层不断往前单向传输,故而得名.

本质上, RNN 和前馈网络的区别是, 它可以保留一个内存状态的记忆, 来处理一个序列的输入, 这对手写字的识别, 语音识别和自然语言处理上, 尤为重要.

鲁迅在小说"藤野先生"里曾有这么一段文字: "那坐在后面发笑的是上学年不及格的留级学生,在校已经一年,掌故颇为熟悉的了。他们便给新生讲演每个教授的历史。这藤野先生,据说是穿衣服太模胡了 ... 有一回上火车去,致使管车 的疑心他是扒手,叫车里的客人大家小心些。 "

通俗的说, LSTM 就是这样一个机制, 好似"藤野先生"里面的"留级学生", 帮你管理很久之前的"掌故", 决定何时调用, 何时忽略.

如果"忘记历史意味着背叛", 那么对于没有使用 LSTM 的神经网络, "忘记历史则意味着迷茫和不知所措".

"深度残余学习", 本质上是借鉴了 LSTM 模型的思路, 但是去掉了里面的 forget gate (遗忘之门) 这个概念而已.

简而言之,Schmidhuber 认为, 人脑的认知之所以会觉得某个东西有趣,是因为他看到了一个新的以前不知道,但是又能够很快学习理解的东西. 如果完全都在预期之中, 那就枯燥无味; 如果太古怪, 大脑无法迅速识别理解,也不会有回报的快感.

公开场合, 他以此理论最爱讲的段子是:
"生物组织四大驱动力都是 F 开头: Feeding (吃), Fighting (斗), Fleeing (逃), Mating (交配) ". ( 这个段子的槽点在最后一个词. 本来听众的预期也是以 F 开头, 但是却看到了 M 开头的另外一个同义词. )

艺术, 音乐和幽默, 全在算法掌握之中,一个在新颖和相识间寻找平衡的算法.

艺术家, 作曲家和段子手们, 要感受 RNN 和 LSTM 的威力, 也许还要再过几年.

但在其它领域, LSTM 很早就开始发飙了.

马尔科夫模型, 是一个概率的模型. 其核心思想, 就是一个系统, 下一个时间点的状态, 只取决于当前的状态, 而和更早的时间点 (昨天, 前天, 大前天)的状态无关.

高斯混合模型, 就是把现实中的数据, 分解成一些基于高斯概率密度函数 (又称正态分布)的叠加.

简而言之, GMM-HMM 就是用概率上的算法, 来猜测语音对应的文字.

实践上 GMM-HMM的算法 一直到 2009年, 都是错误率最低的算法. 但即使如此, 对大多数基准测试, 其单词识别错误率 (Word Error Rate) 一直接近 30%甚至更高.

研究者们借用了Hinton 使用的"限制玻尔兹曼机" (RBM) 的算法 (这个系列的第四篇有介绍过), 对神经网络进行了"预培训". 深度神经网络模型 (DNN), 在这里, 替代了高斯混合模型 (GMM), 来估算识别文字的几率.

我要回帖

更多关于 我们真的学不来 的文章

 

随机推荐