搞AI的人小学生有必要学奥数吗GPU吗

实用|学AI并不需要那么多数学知识:20小时计划就能助你进阶
全球人工智能:专注为AI开发者提供全球最新AI技术动态和社群交流。用户来源包括:北大、清华、中科院、复旦、麻省理工、卡内基梅隆、斯坦福、哈佛、牛津、剑桥等世界名校的AI技术硕士、博士和教授;以及谷歌、腾讯、百度、脸谱、微软、华为、阿里、海康威视、滴滴、英伟达等全球名企的AI开发者和AI科学家。
文章来源:大数据文摘|bigdatadigest 编译:刘晓莉、张礼俊、Aileen
学习AI并不需要太多数学知识
这里还有一个关于AI不为人知的小秘密:
事实上你不需要储备那么多的数学知识才能开始使用AI。
如果你是一名开发人员或系统管理员,你可能早已使用了很多你所了解的库和框架。为了使用curl(一个广泛使用的用来上传和下载的命令行工具),其实你不必了解网站检索内部如何工作。AI也是如此。有很多框架和项目可以帮助你快速地使用AI算法,而不需要你成为一名数据科学博士。
不要误会我的意思。数学有助于你对算法背后发生的事情有所了解。借助它,你可以阅读研究类论文,当看到像Ian Goodfellow著作的深度学习一类高级书籍时,不会毫无头绪。但是,如果你想开始使用AI,你可以今天就开始。
让我们从一些实际的项目来开始做起。
我的学习方法与“第一个二十小时”中概述的优秀方法非常相似。我们都知道一万小时定律。要真正掌握一门技能,你需要投入大量时间。但我们只是刚刚开始。现在我们试图通过初次尝试来发现它的乐趣!
方法很简单:
选择一个项目;
克服自己一定会失败的想法;
进行各种尝试并从失败中快速学习
很容易吧?所以让我们开始!
1、选择一个项目
首先你需要一个项目来激励你离开舒适区。
一个有一百万美元奖金并且可能对肺癌研究产生影响的项目听起来如何?
Kaggle是你可以找到机器学习项目的地方。现在他们正在举办一场价值100万美元的竞赛来改善肺癌病变的分类。任何人都可以加入,包括你。
现在我知道你在想:我绝对没有机会赢。这是一个聚集了最优秀机器学习从业者的比赛。很高兴你想到这里,因为把我们带到了第二步:
2、克服自己一定会失败的想法
学习任何新事物最重要的一步是尽可能地关掉头脑中自我怀疑的声音。“第一个二十小时”主张通过尝试消除干扰,根据时间制定训练计划和一些其他方法,例如冥想,自我肯定或适度饮酒等,做只要能让声音消失,让你可以专注的事。如果你需要一本自我帮助的书来翻越这一障碍,请尝试“You are a Badass”,一部有趣、滑稽和充满讽刺意味的杰作。
就是这种情形:你现在感觉糟糕透了。但是没关系,你不会这样感觉很久。
第一阶段的学习总是会感到困惑和沮丧。所以,不要和自己过意不去,这表明你在正确的轨道上。你正在学东西,你很棒!你可能不会赢得比赛,但那又怎样?专注于在截止日期之前提交一份证明你实力的报告。不是每个人都可以赢得一场马拉松比赛,但是完成一场比赛本身就是一种成就,对吗?
你知道吗?你可能会赢。我是认真的。
作为业余爱好者,你不会像专业人士一样被多年的理论想法所束缚。只要记住这个关于学生的故事,他在黑板上看到了两个看似无法解决的数学问题,误以为是作业,然后解了出来。事实上数据科学较于科学更似艺术。这是一个吸引了各种各样学科背景的博学者聚集的领域。所以放手去试试你能做些啥把。
谁知道会发生什么?
也许你会发现连专家都错过的东西;真真切切地影响到癌症检测,并将这笔可观的收益带回家。
3、进行各种尝试并从失败中快速学习
如果你是一个开发人员,你就会知道这个口头禅。同样适用于学习。我的做法是找出有代表性的书,快速浏览他们,看看哪些对我来说是最有意义的。每个人都有不同的口味,所以有些书适合于一个人而其他人却不喜欢。选最适合你的那个。
现在已经有一些关于机器学习的书,像“Real World Machine Learning”。不幸的是,由于这是个新兴领域,大部分的书籍今年才刚刚出现。你可以去预订“Deep Learning: A Practitioners Approach ”或“Hands-on Machine Learning with Scikit-Learn and Tensorflow”。
但你不必等待。这里我推荐Safari Books Online。你可以使用现成工具来快速学习如何应用深度学习,这样你才能在比赛项目里用上。
你要一起使用Kera与 TensorFlow或者Theano,都可以。
你甚至不需要自己设置。试试github上这个非常棒的一体式深度学习Docker映射。(/get-started/#prerequisites)
坦白的说,无论你使用TensorFlow还是Theano都没关系。它们本质上都是运行机器学习的引擎。在你现阶段的水平上,两者几乎是一样的,所以选择一个即可。
Keras是由一流的Google AI研究人员创建的机器学习框架库。本周末,我有幸地遇见了Keras的创始人Francois Chollet。他把Keras形容为“AI民主化”的关键,他提到“深度学习是成熟的,但还没有被广泛传播……你不必是AI研究员才去使用Keras”。而是可以马上开始使用各种各样最先进的技术算法。
如果你已经有了一个Mac或者是Linux的设备以及英伟达显卡那么你将可以继续了。如果没有,请考虑挑选一款戴尔的外星人。我推荐中档Aurora系列。你并不需要一个强大的处理器,而是一个SSD、备用磁盘来转存数据、16-64GB的内存和最好的英伟达显卡。你该将你所有的现金集中花费在显卡上,因为他们真的可以加速深度学习的速度。你进一步需要使用Linux重新格式化并获取最新的二进制驱动程序。不幸的是,开源软件并不会在你最新的芯片组工作得很好,但及有可能会引起黑屏。你可以参考这个链接解决。(/questions/760934/graphics-issues-after-while-installing-ubuntu-16-04-16-10-with-nvidia-graphics)
如果你想自己动手,还有一些教程(/@acrosson/building-a-deep-learning-box-d17d97e2905c)可以帮助于建好需要的设备。另外,我刚刚在第三部分添加了自己的教程!最后,你可以使用AWS,Google或者Azure cloud,但GPU在云计算里快起来会很贵。在你知道你在做什么之前,购买设备才比租赁更合适。
现在你准备好开始了。以下是使用Keras入门的超简单示例。你将需要一个进行比赛的方法。再一次我会为你节省一些时间。目前最有效的标记和研究图像的方法是广为人知的卷积神经网络(CNN)。Google, Facebook, Pinterest和Amazon都使用它们进行图像处理和标记。你也可以从实践中最好的算法开始吧?
实际上,如果你直奔竞赛本身,获取数据集,并查看该教程(/c/data-science-bowl-2017/details/tutorial),你将会看到它会引导你切割图像并使用搭有Keras和TensorFlow后端的CNN。瞧!你几周可能做的仅仅是实施教程还不得不把参数调来调去,但可以看看你收获了什么。
随后一切会变得疯狂。在数据上使用不同的参数和算法。做实验和寻找乐趣。也许你会偶然发现专家错失的东西!
如果你准备尝试更高级的内容,那么在the Kaggle Data Science Bowl 2017 board(Kaggle数据科学超级碗2017, /c/data-science-bowl-2017/kernels)上有一些很棒的帖子。事实证明,数据科学家们并没有超越他们分享的秘笈。查看这一个(/anokas/data-science-bowl-2017/exploratory-data-analysis),它是一系列匿名检查者的CT扫描图片,有助于你开始探索数据。这是一个目前论坛上更先进的,最受欢迎的帖子。它可以帮助你做“预处理”,它基本上是清洗和转换数据,使神经网络更流畅、更容易处理。它实际上将两维的图像转化为3维图像!超酷!
坦白说,如果你自己输入这些代码并让它运行,你已经做得很好了。这种编程方法是“艰难的”,直到真正了解前就开始实践。甚至还有一系列关于Python和其他语言的书籍(http://amzn.to/2jQfHvR),采用这种学习方式,它可能适用于你。
一个警告:有些人在比赛中发布了一个完美的比分。然而却是以通过研究比赛排行榜和增加训练集大小的小聪明来获得(/olegtrott/data-science-bowl-2017/the-perfect-score-)。这完全合法,但它不会真正有助于你实现目标。你的目标是学习针对训练集如何运行神经网络。现在我将会跳过这个方法,并专注于针对CT扫描图像运行Keras。
就到这儿!祝你好运,你将帮助重新定义癌症的研究,并把一些现金带回家。不是糟糕的一天的工作。
但是,即使你没有赢,你将会很好地学习如何在现实世界中使用AI。
无论发生什么,记得要玩得开心!
热门文章推荐
推荐|CMU开源:价值百万美元的多目标人体关键点实时检测
报告|25所高产大学:源源不断为硅谷顶尖科技公司输送科技人才
最新|2017美国Top15实习雇主出炉,Facebook排名第一
重磅|欧盟重砸10亿欧元 企图抗衡中国量子计算机主导地位
资源|5本深度学习和10本机器学习书籍(免费下载)
热文|成人网站PornHub爬虫,一天可爬取500万以上的视频(附源码)
重磅|中国医疗机器人行业图谱:2家上市,12家获融资,近1/3的团队来自哈工大
重磅|这家只上了中小板的AI公司市值或将超万亿!!!!!
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点【图片】GPU为什么能驱动人工智能,以及它是否会被仿脑芯片取代?【联想吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:1,334,716贴子:
GPU为什么能驱动人工智能,以及它是否会被仿脑芯片取代?收藏
Google和Facebook开源了人工智能产品的计算硬件。这些人工智能算法驱动了Google的搜索和推荐功能,以及Facebook的人工助理M——当然了,还有广告定位。Facebook的计算机服务器名为 Big Sur,是由图像处理单元(GPU)组成,这正是PC机上用来玩最新3D电子游戏的显卡。驱动Google TensorFlow的人工智能硬件也同样如此。那么,为什么人工智能计算需要构建在图像处理器上,而不是主流的计算机处理器上呢?NVIDIA Tesla M40 GPU Accelerator.最初,GPU是设计来配合计算机的CPU(中央处理器),以承担图像的计算任务。渲染3D图像场景是一个并行计算任务。由于图像中各区域之间没有联系或依赖关系,因此,这个任务可以轻易地被拆解成若干个独立的任务,每个任务可以同时并行——这样也可以加快速度。正是这种并行计算让GPU厂商为GPU找到了完全不同的新用途。通过优化GPU,它们可以完成庞大的并行计算任务。于是,GPU变成了专门运行并行代码的处理器,而不仅仅只是用来处理图像。而CPU则始终被用来完成单线程任务,因为大多数通用软件依然是单线程。CPU通常有单核、双核、四核或八核,而GPU则不同,它可以有成千上万核。比如说,Facebook服务器中使用的 NVIDIA Tesla M40有3,072个所谓的CUDA cores。然而,这种庞大的并行能力需要付出代价:必须编写专门的软件才能利用这样的优势,而GPU很难编程。Facebook的Big Sur服务器包含8个NVIDIA Tesla M40 GPU。为什么GPU很适合人工智能?GPU之所以会被选为超算的硬件,是因为目前要求最高的计算问题正好非常适合并行执行。一个主要的例子就是深度学习,这是人工智能(AI)最先进的领域。深度学习以神经网络为基础。神经网络是巨大的网状结构,其中的节点连接非常复杂。在20世纪90年代,神经网络曾一败涂地。但是现在的技术允许我们建造更大、更深的神经网络,推动了深度学习的发展。这些神经网络驱动了Google、Facebook等公司的语音识别、语言翻译和语义搜索等功能。训练一个神经网络「学习」,很像我们大脑在学习时,建立和增强神经元之间的联系。从计算的角度说,这个学习过程可以是并行的,因此它可以用GPU硬件来加速。这种机器学习需要的例子数量很多,同样也可以用并行计算来加速。有了开源机器学习工具(例如Torch code library和GPU-packed servers),在GPU上进行的神经网络训练能比CPU系统快许多倍。GPU代表了未来的计算吗?几十年来,我们已经习惯了摩尔定律——每2年,计算机的处理能力就会翻倍。这个过程主要是由于计算设备的微型化所带来的,因为产生的热量越来越小,允许CPU的运行速度越来越快。然而,「免费的午餐」可能即将走到尽头,因为半导体的微型化已经快要接近硅元素的理论极限了。现在,要提高计算速度,只能转向并行计算。过去十年中,多核CPU的崛起已经证明了这一点。然而现在,GPU已经拔得头筹。除了AI,GPU还被用在流体和空气动力学仿真、物理引擎、大脑仿真等领域。某些世界上最强大的计算机(例如全世界第二快的计算机——橡树岭国家实验室的泰坦超级计算机)正是构建在英伟达的GPU加速器上。除此之外,还有英特尔的Phi并行协同处理器,驱动着全世界最快的超级计算机——Tianhe-2。然而,并不是所有的问题都可以用并行计算来解决,并且这些环境的编程非常困难。橡树岭国家实验室的泰坦超级计算机或许,计算的未来(至少对AI来说)可能会藏在某些更加激进的形式中,例如仿脑计算机。IBM的 True North芯片就是其中一个,还有一个正在研究的项目是10亿欧元的人类大脑计划(Human Brain Project)。这种模型不是用许多处理器组成的网络来模仿生物神经网络,它自身就是一个真正的神经网络:芯片上的一个个硅晶体管组成了回路,这些回路可以用电信号来处理信息和彼此交流——与生物大脑中的神经元没什么不同。支持者声称,这些系统将帮助我们最终扩大神经网络的规模,最终庞大和复杂到接近人类大脑的程度,那时的AI将与人类智能相媲美。还有一些人则持怀疑态度——这些人主要是大脑研究者。他们认为,除了神经元数量和密度极大之外,人类大脑还有很多额外的奥秘。不管采用哪种方式,看起来,我们都将把关于大脑的知识用到超级计算机中。本文由机器之心原创编译,转载请联系本公众号获得授权。?------------------------------------------------机器之心是Comet Labs旗下的前沿科技媒体。Comet Labs是由联想之星发起、独立运作的全球人工智能和智能机器加速投资平台,携手全球领先的产业公司和投资机构,帮助创业者解决产业对接、用户拓展、全球市场、技术整合、资金等关键问题。旗下业务还包括:Comet旧金山加速器、Comet北京加速器、Comet垂直行业加速器。
又是一项新技术吗
又是一项新技术吗
登录百度帐号推荐应用开发者颤抖吧,AI现在开始学习写AI软件了【技术奇点吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:1,512贴子:
开发者颤抖吧,AI现在开始学习写AI软件了收藏
认图片、辨声音、下围棋、玩德州扑克、开卡车……似乎越来越多人能玩的事情AI也能玩而且玩得比人还溜。但暂时有一部分人还是自我感觉安全的——程序员的工作AI还是很难胜任的对吧?毕竟这个东西需要逻辑思考,需要框架和流程设计,哪里是AI能一下子胜任的事情。但Google等公司认为,AI现在可以开始学习一些AI专家做的事情了,那就是写AI程序。Google Brain人工智能研究小组的研究人员最近就进行了这样的尝试。他们在一次试验中让软件设计了一套机器学习系统,然后对这套系统进行测试语言处理方面的测试。结果发现该系统的表示超过了人类设计的软件。Google Brain团队首先用递归神经网络生成神经网络的描述,然后利用强化学习对该RNN进行训练。其方法可以让AI从零开始设计出一个新颖的神经网络架构,在利用CIFAR-10数据集(含6万张32x32的彩图,涉及10类对象,每一类各6000张。其中5万张为训练图像,1万张为测试图像)进行图像识别测试时,其识别的精度甚至比人类设计的最好架构还要高,错误率仅为3.84%,与目前最先进的神经网络模型相比,其错误率仅低0.1个百分点,但速度快了1.2倍。而在用于自然语言处理的Penn Treebank数据集上,其模型构造出来的一种递归神经单元也超越了被广泛使用的LSTM神经单元等最新基准指标,在复杂度方面比后者好3.6倍。类似地,Google的另一个AI团队DeepMind最近也发表了一篇名为《学会强化学习》的论文。其研究同样针对的是深度学习所需的训练数据量大且获取成本高的缺点。他们提出了一种名为deep meta-reinforcement learning的强化学习方法,利用递归神经网络可在完全有监督的背景下支持元学习的特点,把它应用到了强化学习上面。从而将用一个强化学习算法训练出来的神经网络部署到任意环境上,使得AI在训练数据量很少的情况下具备了应用于多种场景的元学习能力。或者用DeepMind团队的话来说,叫做“学会学习”的能力,或者叫做能解决类似相关问题的归纳能力。Google Brain团队的负责人Jeff Dean最近在回顾AI进展情况时,就曾经表态说机器学习专家的部分工作其实应该由软件来负责。他把这种技术叫做“自动化机器学习”,并认为这是最有前途的AI研究方向之一,因为这将大大降低AI应用的门槛。当然,创建学会学习的软件这个想法由来已久,蒙特利尔大学的Yoshua Bengio早在1990年代就提出了这个想法。但之前的试验结果并不理想,因为AI做出来的东西还是比不上人类想出来的模型。但近年来随着计算能力的不断增强,以及深度学习的出现,AI学会学习的能力终于取得了突破。尽管AI的自学能力取得了突破,但是在近期内还不能大面积推广。因为事先这种能力需要庞大的计算资源。比方说Google Brain那个设计出识别率超过人类所开发系统的图像识别系统的AI就需要800个GPU。但这种情况将来可能会发生变化。最近MIT Media Lab也开发出了设计深度学习系统的学习软件,其所开发出来的深度学习系统的对象识别率也超过了人类设计的系统。MIT Media Lab计划将来把它的这套AI开源出来,让大家继续这方面的探索。除了Google和MIT以外,据报道最近几个月有好几个小组也在让AI软件学习编写AI软件方面取得了进展。其中包括了非盈利的AI研究组织OpenAI (其他的非盈利AI组织可参见这里)、MIT、加州大学、伯克利分校等。 一旦这类自启动式的AI技术具备实用性,机器学习软件在各行业应用的节奏无疑将大大加快。因为目前机器学习专家极为短缺,各家企业组织都需要高薪供养这批人。
让ai设计学习能力更强大的ai然后不断循环,总有一天会学会意识是种什么玩意。人类迟早药丸
,人工智能专家们也要失业了?呵呵,如果十几年后人工智能专家们开始找不到工作,不知道他们会不会后悔今天搞出来了会“创造”人工智能的人工智能?
登录百度帐号推荐应用摘要:学习AI可能不需要那么多数学知识:20小时进阶计划
大数据文摘作品,转载请注明来源
原作者 |&Daniel Jeffries
编译 | &刘晓莉,张礼俊,Aileen
这里还有一个关于AI不为人知的小秘密:
事实上你不需要储备那么多的数学知识才能开始使用AI。
如果你是一名开发人员或系统管理员,你可能早已使用了很多你所了解的库和框架。为了使用curl(一个广泛使用的用来上传和下载的命令行工具),其实你不必了解网站检索内部如何工作。AI也是如此。有很多框架和项目可以帮助你快速地使用AI算法,而不需要你成为一名数据科学博士。&
不要误会我的意思。数学有助于你对算法背后发生的事情有所了解。借助它,你可以阅读研究类论文,当看到像Ian Goodfellow著作的深度学习一类高级书籍时,不会毫无头绪。但是,如果你想开始使用AI,你可以今天就开始。
让我们从一些实际的项目来开始做起。
我的学习方法与“第一个二十小时”中概述的优秀方法非常相似。我们都知道一万小时定律。要真正掌握一门技能,你需要投入大量时间。但我们只是刚刚开始。现在我们试图通过初次尝试来发现它的乐趣!
方法很简单:
选择一个项目;
克服自己一定会失败的想法;
进行各种尝试并从失败中快速学习
很容易吧?所以让我们开始!&
选择一个项目
首先你需要一个项目来激励你离开舒适区。
一个有一百万美元奖金并且可能对肺癌研究产生影响的项目听起来如何?
Kaggle是你可以找到机器学习项目的地方。现在他们正在举办一场价值100万美元的竞赛来改善肺癌病变的分类。任何人都可以加入,包括你。
现在我知道你在想:我绝对没有机会赢。这是一个聚集了最优秀机器学习从业者的比赛。很高兴你想到这里,因为把我们带到了第二步:
克服自己一定会失败的想法
学习任何新事物最重要的一步是尽可能地关掉头脑中自我怀疑的声音。“第一个二十小时”主张通过尝试消除干扰,根据时间制定训练计划和一些其他方法,例如冥想,自我肯定或适度饮酒等,做只要能让声音消失,让你可以专注的事。
如果你需要一本自我帮助的书来翻越这一障碍,请尝试“You are a Badass”,一部有趣、滑稽和充满讽刺意味的杰作。
就是这种情形:你现在感觉糟糕透了。但是没关系,你不会这样感觉很久。 &
第一阶段的学习总是会感到困惑和沮丧。所以,不要和自己过意不去,这表明你在正确的轨道上。你正在学东西,你很棒!你可能不会赢得比赛,但那又怎样?专注于在截止日期之前提交一份证明你实力的报告。不是每个人都可以赢得一场马拉松比赛,但是完成一场比赛本身就是一种成就,对吗?&
你知道吗?你可能会赢。我是认真的。
作为业余爱好者,你不会像专业人士一样被多年的理论想法所束缚。只要记住这个关于学生的故事,他在黑板上看到了两个看似无法解决的数学问题,误以为是作业,然后解了出来。事实上数据科学较于科学更似艺术。这是一个吸引了各种各样学科背景的博学者聚集的领域。所以放手去试试你能做些啥把。
谁知道会发生什么?&
也许你会发现连专家都错过的东西;真真切切地影响到癌症检测,并将这笔可观的收益带回家。&
进行各种尝试并从失败中快速学习
如果你是一个开发人员,你就会知道这个口头禅。同样适用于学习。我的做法是找出有代表性的书,快速浏览他们,看看哪些对我来说是最有意义的。每个人都有不同的口味,所以有些书适合于一个人而其他人却不喜欢。选最适合你的那个。
现在已经有一些关于机器学习的书,像“Real World Machine Learning”。不幸的是,由于这是个新兴领域,大部分的书籍今年才刚刚出现。你可以去预订“Deep Learning: A Practitioners Approach&”或“Hands-on Machine Learning with Scikit-Learn and Tensorflow”。&
但你不必等待。这里我推荐Safari Books Online。你可以使用现成工具来快速学习如何应用深度学习,这样你才能在比赛项目里用上。 &
你要一起使用Kera与&TensorFlow或者Theano,都可以。
你甚至不需要自己设置。试试github上这个非常棒的一体式深度学习Docker映射。(/get-started/#prerequisites)
坦白的说,无论你使用TensorFlow还是Theano都没关系。它们本质上都是运行机器学习的引擎。在你现阶段的水平上,两者几乎是一样的,所以选择一个即可。
Keras是由一流的Google AI研究人员创建的机器学习框架库。本周末,我有幸地遇见了Keras的创始人Francois Chollet。他把Keras形容为“AI民主化”的关键,他提到“深度学习是成熟的,但还没有被广泛传播……你不必是AI研究员才去使用Keras”。而是可以马上开始使用各种各样最先进的技术算法。
如果你已经有了一个Mac或者是Linux的设备以及英伟达显卡那么你将可以继续了。如果没有,请考虑挑选一款戴尔的外星人。我推荐中档Aurora系列。你并不需要一个强大的处理器,而是一个SSD、备用磁盘来转存数据、16-64GB的内存和最好的英伟达显卡。你该将你所有的现金集中花费在显卡上,因为他们真的可以加速深度学习的速度。你进一步需要使用Linux重新格式化并获取最新的二进制驱动程序。不幸的是,开源软件并不会在你最新的芯片组工作得很好,但及有可能会引起黑屏。你可以参考这个链接解决。(/questions/760934/graphics-issues-after-while-installing-ubuntu-16-04-16-10-with-nvidia-graphics)
如果你想自己动手,还有一些教程(/@acrosson/building-a-deep-learning-box-d17d97e2905c)可以帮助于建好需要的设备。另外,我刚刚在第三部分添加了自己的教程!最后,你可以使用AWS,Google或者Azure cloud,但GPU在云计算里快起来会很贵。在你知道你在做什么之前,购买设备才比租赁更合适。
现在你准备好开始了。以下是使用Keras入门的超简单示例。你将需要一个进行比赛的方法。再一次我会为你节省一些时间。目前最有效的标记和研究图像的方法是广为人知的卷积神经网络(CNN)。Google, Facebook, Pinterest和Amazon都使用它们进行图像处理和标记。你也可以从实践中最好的算法开始吧?
实际上,如果你直奔竞赛本身,获取数据集,并查看该教程(/c/data-science-bowl-2017/details/tutorial),你将会看到它会引导你切割图像并使用搭有Keras和TensorFlow后端的CNN。瞧!你几周可能做的仅仅是实施教程还不得不把参数调来调去,但可以看看你收获了什么。
随后一切会变得疯狂。在数据上使用不同的参数和算法。做实验和寻找乐趣。也许你会偶然发现专家错失的东西!
如果你准备尝试更高级的内容,那么在the Kaggle Data Science Bowl 2017 board(Kaggle数据科学超级碗2017, /c/data-science-bowl-2017/kernels)上有一些很棒的帖子。事实证明,数据科学家们并没有超越他们分享的秘笈。查看这一个(/anokas/data-science-bowl-2017/exploratory-data-analysis),它是一系列匿名检查者的CT扫描图片,有助于你开始探索数据。这是一个目前论坛上更先进的,最受欢迎的帖子。它可以帮助你做“预处理”,它基本上是清洗和转换数据,使神经网络更流畅、更容易处理。它实际上将两维的图像转化为3维图像!超酷!
坦白说,如果你自己输入这些代码并让它运行,你已经做得很好了。这种编程方法是“艰难的”,直到真正了解前就开始实践。甚至还有一系列关于Python和其他语言的书籍(http://amzn.to/2jQfHvR),采用这种学习方式,它可能适用于你。
一个警告:有些人在比赛中发布了一个完美的比分。然而却是以通过研究比赛排行榜和增加训练集大小的小聪明来获得(/olegtrott/data-science-bowl-2017/the-perfect-score-script)。这完全合法,但它不会真正有助于你实现目标。你的目标是学习针对训练集如何运行神经网络。现在我将会跳过这个方法,并专注于针对CT扫描图像运行Keras。
就到这儿!祝你好运,你将帮助重新定义癌症的研究,并把一些现金带回家。不是糟糕的一天的工作。
但是,即使你没有赢,你将会很好地学习如何在现实世界中使用AI。
无论发生什么,记得要玩得开心!
原文:/learning-ai-if-you-suck-at-math-part-two-practical-projects-47d7a1e4e21f
本文仅代表作者观点,不代表百度立场。本文系作者授权百度百家发表,未经许可,不得转载。
分享到微信朋友圈
打开微信,点击 “ 发现 ”
使用 “ 扫一扫 ” 即可将网页分享至朋友圈。
扫一扫在手机阅读、分享本文
百家号作者平台APP
扫码下载安卓客户端
便捷管理文章信息
随时查看文章收益

我要回帖

更多关于 孩子有必要学珠心算吗 的文章

 

随机推荐