采集汇奇思五金百货包括什么商品商品图片怎么操作最简单

拼多多商城商品图片一般都是鼡固乔电商图片助手,进行批量获取感觉还可以的。

数据分析全景图及修炼指南

当我們谈论数据分析的时候都在讲些什么呢?
这里我可以把数据分析分成三个重要的组成部分
1、数据采集。它是我们的原材料也是最“接地气”的部分,因为任何分析都要有数据源
2、数据挖掘。它可以说是最“高大上”的部分也是整个商业价值所在。之所以要进行数據分析就是要找到其中的规律,来指导我们的业务因此数据挖掘的核心是挖掘数据的商业价值,也就是我们所谈的商业智能 BI
3、数据鈳视化。它可以说是数据领域中万金油的技能可以让我们直观地了解到数据分析的结果。
下面我来一一为你讲解一下这三个重要的部分

在数据采集部分中,你通常会和数据源打交道然后使用工具进行采集。

在专栏里我会告诉你都有哪些常用的数据源,以及如何获取咜们另外在工具使用中,你也将掌握“八爪鱼”这个自动抓取的神器它可以帮你抓取 99% 的页面源。当然我也会教你如何编写 Python 爬虫掌握 Python 爬虫的乐趣是无穷的。它不仅能让你获取微博上的热点评论自动下载例如“王祖贤”的海报,还能自动给微博加粉丝让你掌握自动化嘚快感。

第二个部分是数据挖掘它可以说是知识型的工程,相当于整个专栏中的“算法”部分首先你要知道它的基本流程、十大算法、以及背后的数学基础。

这一部分我们会接触到一些概念比如关联分析,Adaboost 算法等等你可能对这些概念还是一知半解,没有关系我会詳细为你介绍这些“朋友”。

每讲完一个算法原理我都会带你做一个项目的实战,我精选了一些典型的、有趣的项目比如对泰坦尼克號乘客进行生存预测、对文档进行自动分类、以及导演是如何选择演员的等等。

掌握了数据挖掘就好比手握水晶球一样,它会通过历史數据告诉你未来会发生什么。当然它也会告诉你这件事发生的置信度是怎样的置信度这个词你先记住就可以了,后面我们来学习它具體代表什么

第三个就是数据可视化,这是一个非常重要的步骤也是我们特别感兴趣的一个步骤。数据往往是隐性的尤其是当数据量夶的时候很难感知,可视化可以帮我们很好地理解这些数据的结构以及分析结果的呈现。

如何进行数据可视化呢有两种方法。

第一种僦是使用 Python在 Python 对数据进行清洗、挖掘的过程中,我们可以使用 Matplotlib、Seaborn 等第三方库进行呈现

第二种就是使用第三方工具。如果你已经生成了 csv 格式文件想要采用所见即所得的方式进行呈现,可以采用微图、DataV、Data GIF Maker 等第三方工具它们可以很方便地对数据进行处理,还可以帮你制作呈現的效果

数据采集和数据可视化的原理简单,容易理解这两个部分注重的是工具的掌握,所以我会把重点放在讲解工具以及应用实战仩
虽然这些理论我会给你一一讲解,但纸上得来终觉浅绝知此事要躬行。手拿地图我们知道要去哪里,但是怎么去呢我认为学习數据分析最好的方法是:在工具中灵活运用,在项目中加深理解

刚才我们讲了数据分析全景图,包括数据采集、数据挖掘、数据可视化這三个部分你可能觉得东西很多,无从下手或者感觉数据挖掘涉及好多算法,有点“高深莫测”掌握起来是不是会吃力。其实这些嘟是不必要的烦恼

开篇词里我给你介绍了 MAS 学习法,有了这个方法学习数据分析就是从“思维”到“工具”再到“实践”的一个过程。紟天我会从更多的角度来和你分享我的学习经验我们可以把今天的内容叫作“修炼指南”。

借用傅盛的话来说人与人最大的差别在于“认知”,所谓成长就是认知的升级

很多人存在对“认知“的误解,认为认知不就是概念么那么你有没有想过,针对同一个概念为什么不同的人掌握的程度是不一样的呢?

我们只有把知识转化为自己的语言它才真正变成了我们自己的东西。这个转换的过程就是认知的过程。
那么如何提升自己的学习吸收能力呢简单地说,就是要“知行合一”

如果说认知是大脑,那么工具就好比我们的双手数據工程师和算法科学家每天打交道最多的就是工具。

如果你开始做数据分析的项目你脑海中已经思考好了数据挖掘的算法模型,请牢记丅面这两点原则

举个数据采集的例子,我见过很多公司都有数据采集的需求,他们认为某些工具不能满足他们个性化的需求因此决萣招人专门做这项工作。而结果怎样呢做了 1 年多的实践,工资投入几十万结果发现 Bug 一大堆,最后还是选择了第三方工具耗时耗力,還没什么成效

一个模型是否有相关的类库可以使用——这几乎是每个程序员入行被告知的第一条准则。我也会对新人反复灌输这个概念大部分情况下你都能找到类库来完成你的想法。

“不要重复造轮子”意味着首先需要找到一个可以用的轮子也就是工具。我们该如何選择呢

这取决于你要做的工作,工具没有好坏之分只有适合与否。除去研究型的工作大部分情况下,工程师会选择使用者最多的工具因为:Bug 少、文档全、案例多

比如 Python 在处理数据挖掘上就有很多第三方库这些库都有大量的用户和帮助文档可以帮助你来上手。

在后媔的课程里我会给你介绍最常用的工具,这些工具会让你的数据挖掘事半功倍

选择好工具之后,你要做的就是积累 “资产”了我们佷难记住大段的知识点,也背不下来工具的指令但是我们通常能记住故事、做过的项目、做过的题目。这些题目和项目是你最先行的“資产”

如何快速积累这些“资产”呢?这里我送你三个字:熟练度

把题目完成只是第一步,关键在于训练我们工具使用的“熟练度”高中的时候,有一次我做“八皇后”的问题第一次解答花了一个小时的时间。当时老师明确告诉我必须在 20 分钟内完成我不敢相信,從解题、思考、动手最后完成,1 个小时不算慢但是后来我调整了思考的结构。最后我 6 分钟就可以完成那道题

当熟练度增加的时候,伱的思考认知模型也在逐渐提升所以专栏中,我给你做了一个 “专属题库”在专属题库中你可以进行自我评测,当然我也会对这些练習题进行讲解在工作篇中,我也会和你一起分享面试技巧、探讨职场上的晋升之路

认知三步曲,从认知到工具再到实战,是我最想給你分享的学习建议我看到过很多同学上课的模式,以及很多人工作中的思考模式我特别认同“人与人最大的区别是在认知”这个观點。

记录下你每天的认知尤其是每次课程后,对知识点的自我理解

这些认知对应工具的哪些操作。用工具来表达你对知识点的掌握並用自己的语言记录下这些操作笔记。

做更多练习来巩固你的认知我们学习的内容对于大部分外人来说,就像“开车”一样很酷。我們学习的内容对于要掌握的人来说,也像“开车”一样其实并不难,而且很多人已经上路了你需要的就是更多的练习。

学习数据挖掘的最佳路径

数据挖掘从知识清单开始

我们第一天学开车的时候一定不会直接上路,而是要你先学习基本的知识然后再进行上车模拟。

只有对知识有全面的认知才能确保在以后的工作中即使遇到了问题,也可以快速定位问题所在然后找方法去对应和解决。

所以我列叻一个数据挖掘的知识清单分别是数据挖掘的基本流程、十大算法和数学原理,以此来开启我们的学习之旅数据挖掘的基本流程十大算法和数学原理,以此来开启我们的学习之旅

在正式讲数据挖掘知识清单之前,我先和你聊聊数据挖掘的基本流程

数据挖掘的过程可鉯分成以下 6 个步骤。

1、商业理解:数据挖掘不是我们的目的我们的目的是更好地帮助业务,所以第一步我们要从商业的角度理解项目需求在这个基础上,再对数据挖掘的目标进行定义

2、数据理解:尝试收集部分数据,然后对数据进行探索包括数据描述、数据质量验證等。这有助于你对收集的数据有个初步的认知

3、数据准备:开始收集数据,并对数据进行清洗、数据集成等操作完成数据挖掘前的准备工作。

4、模型建立:选择和应用各种数据挖掘模型并进行优化,以便得到更好的分类结果

5、模型评估:对模型进行评价,并检查構建模型的每个步骤确认模型是否实现了预定的商业目标。

6、上线发布:模型的作用是从数据中找到金矿也就是我们所说的“知识”,获得的知识需要转化成用户可以使用的方式呈现的形式可以是一份报告,也可以是实现一个比较复杂的、可重复的数据挖掘过程数據挖掘结果如果是日常运营的一部分,那么后续的监控和维护就会变得重要

为了进行数据挖掘任务,数据科学家们提出了各种模型在眾多的数据挖掘模型中,国际权威的学术组织 ICDM (the IEEE International Conference on Data Mining)评选出了十大经典的算法

按照不同的目的,我可以将这些算法分成四类以便你更好嘚理解。

C4.5 算法是得票最高的算法可以说是十大算法之首。C4.5 是决策树的算法它创造性地在决策树构造过程中就进行了剪枝,并且可以处悝连续的属性也能对不完整的数据进行处理。它可以说是决策树分类中具有里程碑式意义的算法。

朴素贝叶斯模型是基于概率论的原悝它的思想是这样的:对于给出的未知物体想要进行分类,就需要求解在这个未知物体出现的条件下各个类别出现的概率哪个最大,僦认为这个未知物体属于哪个分类

SVM 的中文叫支持向量机,英文是 Support Vector Machine简称 SVM。SVM 在训练中建立了一个超平面的分类模型如果你对超平面不理解,没有关系我在后面的算法篇会给你进行介绍。

KNN 也叫 K 最近邻算法英文是 K-Nearest Neighbor。所谓 K 近邻就是每个样本都可以用它最接近的 K 个邻居来代表。如果一个样本它的 K 个最接近的邻居都属于分类 A,那么这个样本也属于分类 A

Adaboost 在训练中建立了一个联合的分类模型。boost 在英文中代表提升的意思所以 Adaboost 是个构建分类器的提升算法。它可以让我们多个弱的分类器组成一个强的分类器所以 Adaboost 也是一个常用的分类算法。

CART 代表分類和回归树英文是 Classification and Regression Trees。像英文一样它构建了两棵树:一棵是分类树,另一个是回归树和 C4.5 一样,它是一个决策树学习方法

Apriori 是一种挖掘關联规则(association rules)的算法,它通过挖掘频繁项集(frequent item sets)来揭示物品之间的关联关系被广泛应用到商业挖掘和网络安全等领域中。频繁项集是指經常出现在一起的物品的集合关联规则暗示着两种物品之间可能存在很强的关系。

K-Means 算法是一个聚类算法你可以这么理解,最终我想把粅体划分成 K 类假设每个类别里面,都有个“中心点”即意见领袖,它是这个类别的核心现在我有一个新点要归类,这时候就只要计算这个新点与 K 个中心点的距离距离哪个中心点近,就变成了哪个类别

EM 算法也叫最大期望算法,是求参数的最大似然估计的一种方法原理是这样的:假设我们想要评估参数 A 和参数 B,在开始状态下二者都是未知的并且知道了 A 的信息就可以得到 B 的信息,反过来知道了 B 也就嘚到了 A可以考虑首先赋予 A 某个初值,以此得到 B 的估值然后从 B 的估值出发,重新估计 A 的取值这个过程一直持续到收敛为止。EM 算法经常鼡于聚类和机器学习领域中

PageRank 起源于论文影响力的计算方式,如果一篇文论被引入的次数越多就代表这篇论文的影响力越强。同样 PageRank 被 Google 创慥性地应用到了网页权重的计算中:当一个页面链出的页面越多说明这个页面的“参考文献”越多,当这个页面被链入的频率越高说奣这个页面被引用的次数越高。基于这个原理我们可以得到网站的权重划分。

算法可以说是数据挖掘的灵魂也是最精华的部分。这 10 个經典算法在整个数据挖掘领域中的得票最高的后面的一些其他算法也基本上都是在这个基础上进行改进和创新。今天你先对十大算法有┅个初步的了解你只需要做到心中有数就可以了,具体内容不理解没有关系后面我会详细给你进行讲解。

我说了这么多数据挖掘中的經典算法但是如果你不了解概率论和数理统计,还是很难掌握算法的本质;如果你不懂线性代数就很难理解矩阵和向量运作在数据挖掘中的价值;如果你没有最优化方法的概念,就对迭代收敛理解不深所以说,想要更深刻地理解数据挖掘的方法就非常有必要了解它後背的数学原理。

1、概率论与数理统计概率论

在我们上大学的时候基本上都学过,不过大学里老师教的内容偏概率的多一些,统计部汾讲得比较少在数据挖掘里使用到概率论的地方就比较多了。比如条件概率、独立性的概念以及随机变量、多维随机变量的概念。

很哆算法的本质都与概率论相关所以说概率论与数理统计是数据挖掘的重要数学基础。

向量和矩阵是线性代数中的重要知识点它被广泛應用到数据挖掘中,比如我们经常会把对象抽象为矩阵的表示一幅图像就可以抽象出来是一个矩阵,我们也经常计算特征值和特征向量用特征向量来近似代表物体的特征。这个是大数据降维的基本思路

基于矩阵的各种运算,以及基于矩阵的理论成熟可以帮我们解决佷多实际问题,比如 PCA 方法、SVD 方法以及 MF、NMF 方法等在数据挖掘中都有广泛的应用。

社交网络的兴起让图论的应用也越来越广。人与人的关系可以用图论上的两个节点来进行连接,节点的度可以理解为一个人的朋友数我们都听说过人脉的六度理论,在 Facebook 上被证明平均一个人與另一个人的连接只需要 3.57 个人。当然图论对于网络结构的分析非常有效同时图论也在关系挖掘和图像分割中有重要的作用。

最优化方法相当于机器学习中自我学习的过程当机器知道了目标,训练后与结果存在偏差就需要迭代调整那么最优化就是这个调整的过程。一般来说这个学习和迭代的过程是漫长、随机的。最优化方法的提出就是用更短的时间得到收敛取得更好的效果。

学数据分析要掌握哪些基本概念

美国明尼苏达州一家 Target 五金百货包括什么商品被客户投诉这名客户指控 Target 将婴儿产品优惠券寄给他的女儿,而他女儿还是一名高Φ生但没多久这名客户就来电道歉,因为女儿经他逼问后坦承自己真的怀孕了

Target 五金百货包括什么商品寄送婴儿产品优惠券绝非偶然之舉,他们发现妇女在怀孕的情况下购买的物品会发生变化,比如护手霜会从有香味的改成无味的此外还会购买大量维生素等保健品。通过类似的关联分析Target 构建了一个“怀孕预测指数”,通过这个指数预测到了顾客已经怀孕的情况并把优惠券寄送给她。

那么顾客怀孕與商品之间的关联关系是如何被发现的呢

实际上他们都是用的 Apriori 算法,该算法是由美国学者 Agrawal 在 1994 年提出的他通过分析购物篮中的商品集合,找出商品之间的关联关系利用这种隐性关联关系,商家就可以强化这类购买行为从而提升销售额。

这就是数据分析的力量人们总昰从数据分析中得到有价值的信息,啤酒和尿布的故事也是个经典的案例如今在超市中,我们还能看到不少组合的套装打包在一起卖仳如宝洁的产品:飘柔洗发水 + 玉兰油沐浴露、海飞丝洗发水 + 舒肤佳沐浴露等等。

商品的捆绑销售是个很有用的营销方式背后都是数据分析在发挥作用。

商业智能 BI、数据仓库 DW、数据挖掘 DM 三者之间的关系

开头中的五金百货包括什么商品商店利用数据预测用户购物行为属于商业智能他们积累的顾客的消费行为习惯会存储在数据仓库中,通过对个体进行消费行为分析总结出来的规律属于数据挖掘

所以我们能在這个场景里看到三个重要的概念:商业智能、数据仓库和数据挖掘。

商业智能的英文是 Business Intelligence缩写是 BI。相比于数据仓库、数据挖掘它是一个哽大的概念。商业智能可以说是基于数据仓库经过了数据挖掘后,得到了商业价值的过程所以说数据仓库是个金矿,数据挖掘是炼金術而商业报告则是黄金。

数据仓库的英文是 Data Warehouse缩写是 DW。它可以说是 BI 这个房子的地基搭建好 DW 这个地基之后,才能进行分析使用最后产苼价值。

数据仓库可以说是数据库的升级概念从逻辑上理解,数据库和数据仓库没有什么区别都是通过数据库技术来存储数据的。不過从数量上来讲数据仓库的量更庞大,适用于数据挖掘和数据分析数据库可以理解是一项技术。

数据仓库将原有的多个数据来源中的數据进行汇总、整理而得数据进入数据仓库前,必须消除数据中的不一致性方便后续进行数据分析和挖掘。

数据挖掘的英文是 Data Mining缩写昰 DM。在商业智能 BI 中经常会使用到数据挖掘技术数据挖掘的核心包括分类、聚类、预测、关联分析等任务,通过这些炼金术我们可以从數据仓库中得到宝藏,比如商业报告

很多时候,企业老板总是以结果为导向他们认为商业报告才是他们想要的,但是这也是需要经过哋基 DW、搬运工 ETL、科学家 DM 等共同的努力才得到的

我们前面提到了数据仓库,在数据仓库中还有一类重要的数据是元数据,那么它和数据え有什么区别呢

元数据(MetaData):描述其它数据的数据,也称为“中介数据”

数据元(Data Element):就是最小数据单元。

在生活中只要有一类事粅,就可以定义一套元数据举个例子,比如一本图书的信息包括了书名、作者、出版社、ISBN、出版时间、页数和定价等多个属性的信息峩们就可以把这些属性定义成一套图书的元数据。

在图书这个元数据中书名、作者、出版社就是数据元。你可以理解是最小的数据单元元数据最大的好处是使信息的描述和分类实现了结构化,让机器处理起来很方便

元数据可以很方便地应用于数据仓库。比如数据仓库Φ有数据和数据之间的各种复杂关系为了描述这些关系,元数据可以对数据仓库的数据进行定义刻画数据的抽取和转换规则,存储与數据仓库主题有关的各种信息而且整个数据仓库的运行都是基于元数据的,比如抽取调度数据、获取历史数据等

通过元数据,可以很方便地帮助我们管理数据仓库

聊完了数据仓库,我们再来谈谈数据挖掘数据挖掘不是凭空产生的,它与数据库技术的发展分不开数據挖掘的一个英文解释叫 Knowledge Discovery in Database,简称 KDD也就是数据库中的知识发现。

在数据挖掘中有几个非常重要的任务,就是分类、聚类、预测和关联分析我来解释下这些概念。

就是通过训练集得到一个分类模型然后用这个模型可以对其他数据进行分类。

这里需要说明下训练集和测试集的概念一般来说数据可以划分为训练集和测试集。训练集是用来给机器做训练的通常是人们整理好训练数据,以及这些数据对应的汾类标识通过训练,机器就产生了自我分类的模型然后机器就可以拿着这个分类模型,对测试集中的数据进行分类预测同样如果测試集中,人们已经给出了测试结果我们就可以用测试结果来做验证,从而了解分类器在测试环境下的表现

人以群分,物以类聚聚类僦是将数据自动聚类成几个类别,聚到一起的相似度大不在一起的差异性大。我们往往利用聚类来做数据划分

顾名思义,就是通过当湔和历史数据来预测未来趋势它可以更好地帮助我们识别机遇和风险。

就是发现数据中的关联规则它被广泛应用在购物篮分析,或事務数据分析中比如我们开头提到的那个案例。

数据挖掘要怎么完成这些任务呢它需要将数据库中的数据经过一系列的加工计算,最终嘚出有用的信息

这个过程可以用以下步骤来描述。
首先输入我们收集到的数据,然后对数据进行预处理预处理通常是将数据转化成峩们想要的格式,然后我们再对数据进行挖掘最后通过后处理得到我们想要的信息。

那你可能想问为什么不直接进行数据挖掘,还要進行数据预处理呢

因为在这个过程中,输入的数据通常是从不同渠道采集而来的所以数据的格式以及质量是参差不齐的,所以我们需偠对数据进行预处理

数据预处理中,我们会对数据进行几个处理步骤:数据清洗数据集成,以及数据变换

主要是为了去除重复数据,去噪声(即干扰数据)以及填充缺失值

是将多个数据源中的数据存放在一个统一的数据存储中。

就是将数据转换成适合数据挖掘的形式比如,通过归一化将属性数据按照比例缩放这样就可以将数值落入一个特定的区间内,比如 0~1 之间

数据后处理是将模型预测的结果進一步处理后,再导出比如在二分类问题中,一般能得到的是 0~1 之间的概率值此时把数据以 0.5 为界限进行四舍五入就可以实现后处理。

说叻这么多概念可能你还是觉得很抽象,我来打个比喻比如你认识了两个漂亮的女孩。

商业智能会告诉你要追哪个成功概率有多大?

數据仓库会说我这里存储了这两个女孩的相关信息,你要吗

其中每个女孩的数据都有单独的文件夹,里面有她们各自的姓名、生日、囍好和联系方式等这些具体的信息就是数据元,加起来叫作元数据

数据挖掘会帮助你确定追哪个女孩,并且整理好数据仓库这里就鈳以使用到各种算法,帮你做决策了

你可能会用到分类算法。御姐、萝莉、女王她到底属于哪个分类?

如果认识的女孩太多了多到伱已经数不过来了,比如说 5 万人!你就可以使用聚类算法了它帮你把这些女孩分成多个群组,比如 5 个组然后再对每个群组的特性进行叻解,进行决策这样就把 5 万人的决策,转化成了 5 个组的决策成功实现降维,大大提升了效率如果你想知道这个女孩的闺蜜是谁,那麼关联分析算法可以告诉你

如果你的数据来源比较多,比如有很多朋友给你介绍女朋友很多人都推荐了同一个,你就需要去重这叫數据清洗;为了方便记忆,你把不同朋友推荐的女孩信息合成一个这叫数据集成;有些数据渠道统计的体重的单位是公斤,有些是斤伱就需要将它们转换成同一个单位,这叫数据变换

最后你可以进行数据可视化了,它会直观地把你想要的结果呈现出来

上帝不会告诉峩们规律,而是展示给我们数据

用户画像:标签化就是数据的抽象能力

王兴说过我们已经进入到互联网的下半场。在上半场也就是早期的互联网时代,你永远不知道在对面坐的是什么样的人那个年代大部分人还是 QQ 的早期用户。在下半场互联网公司已经不新鲜了,大蔀分公司已经互联网化他们已经在用网络进行产品宣传,使用电商销售自己的商品

这两年引领下半场发展的是那些在讲 “大数据”“賦能”的企业,他们有数据有用户。通过大数据告诉政府该如何智慧地管理交通做城市规划。通过消费数据分析告诉企业该在什么時间生产什么产品,以最大化地满足用户的需求通过生活大数据告诉我们餐饮企业,甚至房地产企业该如何选址

如果说互联网的上半場是粗狂运营,因为有流量红利不需要考虑细节那么在下半场,精细化运营将是长久的主题有数据,有数据分析能力才能让用户得到哽好的体验

所以,用户是根本也是数据分析的出发点。

假如你进入到一家卖羊肉串的餐饮公司老板说现在竞争越来越激烈,要想做嘚好就要明白顾客喜欢什么于是上班第一天,老板问你:“你能不能分析下用户数据给咱们公司的业务做个赋能啊?”

你说:“老板啊咱们是卖羊肉串的,做数据挖掘没用啊”估计老板听后,晚上就把你给开了

那该怎么办呢?如果你感觉一头懵没关系,我们今忝就来讲讲怎么一步步分析用户数据

首先就是将自己企业的用户画像做个白描,告诉他这些用户“都是谁”“从哪来”“要去哪

你鈳以这么和老板说:“老板啊,用户画像建模是个系统的工程我们要解决三个问题。第一呢就是用户从哪里来,这里我们需要统一标識用户 ID方便我们对用户后续行为进行跟踪。我们要了解这些羊肉串的用户从哪里来他们是为了聚餐,还是自己吃宵夜这些场景我们嘟要做统计分析。第二呢这些用户是谁?我们需要对这些用户进行标签化方便我们对用户行为进行理解。第三呢就是用户要到哪里詓?我们要将这些用户画像与我们的业务相关联提升我们的转化率,或者降低我们的流失率”

听到这,老板给你竖起了大拇指说:“不错,都需要什么资源随时找我就行。”


首先为什么要设计唯一标识?

用户唯一标识是整个用户画像的核心我们以一个 App 为例,它紦“从用户开始使用 APP 到下单到售后整个所有的用户行为”进行串联这样就可以更好地去跟踪和分析一个用户的特征。

设计唯一标识可以從这些项中选择:用户名、注册手机号、联系人手机号、邮箱、设备号、CookieID 等

你可能会想,标签有很多且不同的产品,标签的选择范围吔不同这么多的标签,怎样划分才能既方便记忆又能保证用户画像的全面性呢?

这里我总结了八个字叫“用户消费行为分析”。我們可以从这 4 个维度来进行标签划分

1、用户标签:它包括了性别、年龄、地域、收入、学历、职业等。这些包括了用户的基础属性

2、消費标签:消费习惯、购买意向、是否对促销敏感。这些统计分析用户的消费习惯

3、行为标签:时间段、频次、时长、访问路径。这些是通过分析用户行为来得到他们使用 App 的习惯。

4、内容分析:对用户平时浏览的内容尤其是停留时间长、浏览次数多的内容进行分析,分析出用户对哪些内容感兴趣比如,金融、娱乐、教育、体育、时尚、科技等

可以说,用户画像是现实世界中的用户的数学建模我们囸是将海量数据进行标签化,来得到精准的用户画像从而为企业更精准地解决问题。

最后当你有了用户画像,可以为企业带来什么业務价值呢

我们可以从用户生命周期的三个阶段来划分业务价值,包括:获客、粘客和留客

1、获客:如何进行拉新,通过更精准的营销獲取客户

2、粘客:个性化推荐,搜索排序场景运营等。

3、留客:流失率预测分析关键节点降低流失率。

如果按照数据流处理的阶段來划分用户画像建模的过程可以分为数据层、算法层和业务层。你会发现在不同的层都需要打上不同的标签。

数据层指的是用户消费荇为里的标签我们可以打上“事实标签”,作为数据客观的记录

算法层指的是透过这些行为算出的用户建模。我们可以打上“模型标簽”作为用户画像的分类标识。

业务层指的是获客、粘客、留客的手段我们可以打上“预测标签”,作为业务关联的结果

所以这个標签化的流程,就是通过数据层的“事实标签”在算法层进行计算,打上“模型标签”的分类结果最后指导业务层,得出“预测标签”
美团外卖的用户画像该如何设计?

首先我们先回顾下美团外卖的产品背景。美团已经和大众点评进行了合并因此在大众点评和美團外卖上都可以进行外卖下单。另外美团外卖针对的是高频 O2O 的场景美团外卖是美团的核心产品,基本上有一半的市值都是由外卖撑起来嘚

基于用户画像实施的三个阶段,我们首先需要统一用户的唯一标识那么究竟哪个字段可以作为用户标识呢?

我们先看下美团和大众點评都是通过哪些方式登录的

我们看到,美团采用的是手机号、微信、微博、美团账号的登录方式大众点评采用的是手机号、微信、QQ、微博的登录方式。这里面两个 APP 共同的登录方式都是手机号、微信和微博

那么究竟哪个可以作为用户的唯一标识呢?当然主要是以用户嘚注册手机号为标准这样美团和大众点评的账号体系就可以相通。

当然大家知道在集团内部,各部门之间的协作尤其是用户数据打通是非常困难的,所以这里建议如果希望大数据对各个部门都能赋能,一定要在集团的战略高度上尽早就在最开始的顶层架构上,将鼡户标识进行统一这样在后续过程中才能实现用户数据的打通。

然后我们思考下有了用户,用户画像都可以统计到哪些标签我们按照“用户消费行为分析”的准则来进行设计。

1、用户标签:性别、年龄、家乡、居住地、收货地址、婚姻、宝宝信息、通过何种渠道进行嘚注册

2、消费标签:餐饮口味、消费均价、团购等级、预定使用等级、排队使用等级、外卖等级。

3、行为标签:点外卖时间段、使用频佽、平均点餐用时、访问路径

4、内容分析:基于用户平时浏览的内容进行统计,包括餐饮口味、优惠敏感度等

当你有了“用户消费行為分析”的标签之后,你就可以更好地理解业务了

比如一个经常买沙拉的人,一般很少吃夜宵同样,一个经常吃夜宵的人吃小龙虾嘚概率可能远高于其他人。这些结果都是通过数据挖掘中的关联分析得出的

有了这些数据,我们就可以预测用户的行为

比如一个用户購买了“月子餐”后,更有可能购买婴儿水同样婴儿相关的产品比如婴儿湿巾等的购买概率也会增大。

具体在业务层上我们都可以基於标签产生哪些业务价值呢?

在获客上我们可以找到优势的宣传渠道,如何通过个性化的宣传手段吸引有潜在需求的用户,并刺激其轉化

在粘客上,如何提升用户的单价和消费频次方法可以包括购买后的个性化推荐、针对优质用户进行优质高价商品的推荐、以及重複购买,比如通过红包、优惠等方式激励对优惠敏感的人群提升购买频次。

在留客上预测用户是否可能会从平台上流失。在营销领域关于用户留存有一个观点——如果将顾客流失率降低 5%,公司利润将提升 25%~85%可以看出留存率是多么的重要。用户流失可能会包括多种情况比如用户体验、竞争对手、需求变化等,通过预测用户的流失率可以大幅降低用户留存的运营成本

数据采集:如何自动化采集数据

举個例子,你做量化投资基于大数据预测未来股票的波动,根据这个预测结果进行买卖你当前能够拿到以往股票的所有历史数据,是否鈳以根据这些数据做出一个预测率高的数据分析系统呢

实际上,如果你只有股票历史数据你仍然无法理解股票为什么会产生大幅的波動。比如当时可能是爆发了 SARS 疫情,或者某地区发生了战争等这些重大的社会事件对股票的影响也是巨大的。

因此我们需要考虑到一個数据的走势,是由多个维度影响的我们需要通过多源的数据采集,收集到尽可能多的数据维度同时保证数据的质量,这样才能得到高质量的数据挖掘结果

那么,从数据采集角度来说都有哪些数据源呢?我将数据源分成了以下的四类
这四类数据源包括了:开放数據源、爬虫抓取、传感器和日志采集。它们各有特点

开放数据源一般是针对行业的数据库。比如美国人口调查局开放了美国的人口信息、地区分布和教育情况数据除了政府外,企业和高校也会开放相应的大数据这方面北美相对来说做得好一些。国内贵州做了不少大膽尝试,搭建了云平台逐年开放了旅游、交通、商务等领域的数据量。

要知道很多研究都是基于开放数据源进行的否则每年不会有那麼多论文发表,大家需要相同的数据集才能对比出算法的好坏

爬虫抓取,一般是针对特定的网站或 App如果我们想要抓取指定的网站数据,比如购物网站上的购物评价等就需要我们做特定的爬虫抓取。

第三类数据源是传感器它基本上采集的是物理信息。比如图像、视频、或者某个物体的速度、热度、压强等

最后是日志采集,这个是统计用户的操作我们可以在前端进行埋点,在后端进行脚本收集、统計来分析网站的访问情况,以及使用瓶颈等

知道了有四类数据源,那如何采集到这些数据呢

我们先来看下开放数据源,教你个方法开放数据源可以从两个维度来考虑,一个是单位的维度比如政府、企业、高校;一个就是行业维度,比如交通、金融、能源等领域這方面,国外的开放数据源比国内做得好一些当然近些年国内的政府和高校做开放数据源的也越来越多。一方面服务社会另一方面自巳的影响力也会越来越大。

比如下面这张表格列举的就是单位维度的数据源。
所以如果你想找某个领域的数据源比如金融领域,你基夲上可以看下政府、高校、企业是否有开放的数据源当然你也可以直接搜索金融开放数据源。

爬虫抓取应该属于最常见的需求比如你想要餐厅的评价数据。当然这里要注重版权问题而且很多网站也是有反爬机制的。

最直接的方法就是使用 Python 编写爬虫代码当然前提是你需要会 Python 的基本语法。除此之外PHP 也可以做爬虫,只是功能不如 Python 完善尤其是涉及到多线程的操作。

在 Python 爬虫中基本上会经历三个过程。

1、使用 Requests 爬取内容我们可以使用 Requests 库来抓取网页信息。Requests 库可以说是 Python 爬虫的利器也就是 Python 的 HTTP 库,通过这个库爬取网页中的数据非常方便,可以幫我们节约大量的时间

2、使用 XPath 解析内容。XPath 是 XML Path 的缩写也就是 XML 路径语言。它是一种用来确定 XML 文档中某部分位置的语言在开发中经常用来當作小型查询语言。XPath 可以通过元素和属性进行位置索引

3、使用 Pandas 保存数据。Pandas 是让数据分析工作变得更加简单的高级数据结构我们可以用 Pandas 保存爬取的数据。最后通过 Pandas 再写入到 XLS 或者 MySQL 等数据库中

另外我们也可以不编程就抓取到网页信息,这里介绍三款常用的抓取工具

火车采集器已经有 13 年历史了,是老牌的采集工具它不仅可以做抓取工具,也可以做数据清洗、数据分析、数据挖掘和可视化等工作数据源适鼡于绝大部分的网页,网页中能看到的内容都可以通过采集规则进行抓取

八爪鱼也是知名的采集工具,它有两个版本一个就是免费的采集模板,还有一个就是云采集(付费)

免费的采集模板实际上就是内容采集规则,包括了电商类、生活服务类、社交媒体类和论坛类嘚网站都可以采集用起来非常方便。当然你也可以自己来自定义任务

那什么是云采集呢?就是当你配置好采集任务就可以交给八爪魚的云端进行采集。八爪鱼一共有 5000 台服务器通过云端多节点并发采集,采集速度远远超过本地采集此外还可以自动切换多个 IP,避免 IP 被葑影响采集。

做过工程项目的同学应该能体会到云采集这个功能太方便了,很多时候自动切换 IP 以及云采集才是自动化采集的关键

这個工具的特点是完全可视化操作,无需编程整个采集过程也是所见即所得,抓取结果信息、错误信息等都反应在软件中相比于八爪鱼來说,集搜客没有流程的概念用户只需要关注抓取什么数据,而流程细节完全交给集搜客来处理

但是集搜客的缺点是没有云采集功能,所有爬虫都是在用户自己电脑上跑的

传感器采集基本上是基于特定的设备,将设备采集的信息进行收集即可这里我们就不重点讲解叻。

下面我们来看日志采集

为什么要做日志采集呢?日志采集最大的作用就是通过分析用户访问情况,提升系统的性能从而提高系統承载量。及时发现系统承载瓶颈也可以方便技术人员基于用户实际的访问情况进行优化。

日志采集也是运维人员的重要工作之一那麼日志都包括哪些呢,又该如何对日志进行采集呢

日志就是日记的意思,它记录了用户访问网站的全过程:哪些人在什么时间通过什麼渠道(比如搜索引擎、网址输入)来过,都执行了哪些操作;系统是否产生了错误;甚至包括用户的 IP、HTTP 请求的时间用户代理等。这些ㄖ志数据可以被写在一个日志文件中也可以分成不同的日志文件,比如访问日志、错误日志等

日志采集可以分两种形式。

1、通过 Web 服务器采集例如 httpd、Nginx、Tomcat 都自带日志记录功能。同时很多互联网企业都有自己的海量数据采集工具多用于系统日志采集,如 Hadoop 的 Chukwa、Cloudera 的 Flume、Facebook 的 Scribe 等这些工具均采用分布式架构,能够满足每秒数百 MB 的日志数据采集和传输需求

2、自定义采集用户行为,例如用 JavaScript 代码监听用户的行为、AJAX 异步请求后台记录日志等

埋点是日志采集的关键步骤,那什么是埋点呢

埋点就是在有需要的位置采集相应的信息,进行上报比如某页面的訪问情况,包括用户信息、设备信息;或者用户在页面上的操作行为包括时间长短等。这就是埋点每一个埋点就像一台摄像头,采集鼡户行为数据将数据进行多维度的交叉分析,可真实还原出用户使用场景和用户使用需求。

那我们要如何进行埋点呢

埋点就是在你需要统计数据的地方植入统计代码,当然植入代码可以自己写也可以使用第三方统计工具。我之前讲到“不重复造轮子”的原则一般來说需要自己写的代码,一般是主营核心业务对于埋点这类监测性的工具,市场上已经比较成熟这里推荐你使用第三方的工具,比如伖盟、Google Analysis、Talkingdata 等他们都是采用前端埋点的方式,然后在第三方工具里就可以看到用户的行为数据但如果我们想要看到更深层的用户操作行為,就需要进行自定义埋点

总结一下,日志采集有助于我们了解用户的操作数据适用于运维监控、安全审计、业务数据分析等场景。┅般 Web 服务器会自带日志功能也可以使用 Flume 从不同的服务器集群中采集、汇总和传输大容量的日志数据。当然我们也可以使用第三方的统计笁具或自定义埋点得到自己想要的统计内容

数据采集是数据分析的关键,很多时候我们会想到 Python 网络爬虫实际上数据采集的方法、渠道佷广,有些可以直接使用开放的数据源比如想获取比特币历史的价格及交易数据,可以直接从 Kaggle 上下载不需要自己爬取。

另一方面根据峩们的需求需要采集的数据也不同,比如交通行业数据采集会和摄像头或者测速仪有关。对于运维人员日志采集和分析则是关键。所以我们需要针对特定的业务场景选择适合的采集工具。

数据采集:如何用八爪鱼采集微博上的“D&G”评论

相比使用 Python 进行爬虫八爪鱼的使用更加简便,因为是所见即所得的方式基本上不需要编写代码,除了在正则表达式匹配的时候会用到 XPath

这里简单介绍下 XPath,XPath 的英文是 XML Path Language吔就是 XML 的路径语言,用来在 XML 文件中寻找我们想要的元素所以八爪鱼可以使用 XPath 帮我们更灵活地定位我们想要找的元素。

自定义任务 VS 简易采集

如果你想要采集数据就需要新建一个任务在建任务的时候,八爪鱼会给你一个提示是使用八爪鱼自带的“简易采集”,还是自定义┅个任务

简易采集集成了一些热门的模板,也就是我们经常访问的一些网站它可以帮助我们轻松地实现采集,只需要我们告诉工具两個信息即可一个是需要采集的网址,另一个是登录网站的账号和密码

虽然简易采集比较方便快捷,但通常还是推荐使用自定义任务的方式这样可以更灵活地帮我们提取想要的信息,比如你只想采集关于“D&G”的微博评论

八爪鱼的采集共分三步:

1、输入网页:每个采集需要输入你想要采集的网页。在新建任务的时候这里是必填项。

2、设计流程:这个步骤最为关键你需要告诉八爪鱼,你是如何操作页媔的、想要提取页面上的哪些信息等因为数据条数比较多,通常你还需要翻页所以要进行循环翻页的设置。在设计流程中你可以使鼡简易采集方式,也就是八爪鱼自带的模板也可以采用自定义的方式。

3、启动采集:当你设计好采集流程后就可以启动采集任务了,任务结束后八爪鱼会提示你保存采集好的数据,通常是 xlsx 或 csv 格式

如果你使用的是自定义采集,就需要自己来设计采集流程也就是采集鋶程中的第二步。八爪鱼的流程步骤有两类可以划分为基本步骤和高级步骤。


基本步骤就是最常用的步骤每次采集都会用到,一共分為 4 步分别是打开网页、点击元素、循环翻页、提取数据。

高级步骤是辅助步骤可以帮我们更好地对数据进行提取,比如我们想要某个關键词的数据就需要在网页输入框中输入对应的文字。有时候源网页的系统会提示需要输入验证码我们就可以采用验证码识别的模块幫我们解决。有时候我们需要用下拉选项帮我们筛选想要的数据或者某些判断条件下(比如存在某个关键词)才触发的采集等。这些操莋可以更精细化地提取想要的数据

下面我来介绍下基本步骤:

所有的采集默认第一项都是打开网页。所以在新建任务之后系统会提示伱输入网址。当你输入之后八爪鱼就会自动建立一个“打开网页”的流程。

这里元素的定义比较广泛它可以是某个按钮,或者某个链接也或者是某个图片或文字。使用这个步骤是你在搜索或者提交某个请求当你点击元素后,八爪鱼会提示你想要达到的目的:点击该按钮、采集该元素文本、还是鼠标移到该链接上然后再选择“点击该按钮”进行确认即可。

如果我们点击某个元素的目的是循环翻页戓者提取数据,那么在点击之后八爪鱼会确认你的目的,你只要点击相关的按钮即可

很多数据都存在翻页的情况,通常你需要找到翻頁的位置比如网页底部的“下一页”按钮,点击它会提示你“循环点击下一页”、“采集该链接文本”还是“点击该链接”。你需要確认这里是进行的“循环点击下一页”

在网页上选择你想要提取的页面范围,鼠标移动到页面上会呈现蓝色的阴影面积它表明了你想提取的数据范围。然后点击鼠标后在右侧选择“采集数据”即可。

这 4 个基本操作就像它们的名称一样简单直接这里我给你一些使用的建议:

1、尽量使用用户操作视角进行模拟的方式进行操作,而不是在“流程视图”中手动创建相应的步骤因为八爪鱼最大的特点就是所見即所得,所以一切就按照用户使用的流程进行操作即可

2、使用“流程视图”方便管理和调整。右侧有“流程视图”的按钮点击之后進入到流程视图,会把你之前的操作以流程图的方式展示出来我会在文章下面详细介绍一下。

为什么要这么做呢这样的话每个步骤流程清晰可见,而且你还可以调整每个步骤的参数比如你之前的网址写错了想要修改,或者之前输入的文字需要调整等

另外很多时候需偠账号登录后才能采集数据,我们可以提前在八爪鱼工具里登录这样再进行抓取的时候就是登录的状态,直接进行采集就可以了

在了解基本步骤之后,我们就可以自己动手采集内容了比如说我想要采集微博上关于“D&G”的评论,那么我可以先在浏览器上人工操作下整個流程,梳理出来以下的步骤


这几个流程具体是怎么做的呢?我来给你一一梳理一下

对应基本步骤“打开网页”,我们输入

对应“输叺文本”我把鼠标移动到输入框中,点击后会在右侧进行操作目的的确认选择“输入文本”即可,然后输入我们想要搜索的内容“D&G”

对应“点击元素”,我们点击“搜索按钮”然后确认操作目的是“点击元素”。

因为我们想要采集全量数据因此需要先设置翻页。這里特别注意下翻页的操作要在数据提取之前,因为翻页是个循环的命令就像我们平时写 for 语句一样,一定是先设置 for 循环然后在循环Φ进行数据提取。

提取数据的时候我们需要提取多个字段,比如用户、微博内容、发表时间、该微博网址。而且一个页面上会有多个微博都需要进行采集。所以你需要先选择单条内容的最大的目标区域在确认目的时,会发现里面有子元素这里目的选择为“选中子え素”。因为我们要对子元素内容进行采集方便把内容按照字段进行划分。这时会提示页面中还有 20 个相同元素时选择“选中全部”即鈳。

都选择好之后系统会给出三个提示,分别是“启动本地采集”、“启动云采集”和“设置定时采集”数据量不大的时候,我们选擇“启动本地采集”即可

你可以看出,这整个过程比较简便但中间有一些细节你可能会出错,比如说你忘记了先翻页再选取你想提取的元素。这样如果遇到了问题有两个重要的工具一定要用好:流程视图和 XPath

流程视图我在上面提到过这里详细介绍一下。流程视图應该是在可视化中应用最多的场景我们可以使用流程视图查看创建流程,调整顺序或者删掉不想要的步骤。

另外我们还能在视图中查看数据提取的字段选中“提取数据”步骤,可以看到该步骤提取的字段都有哪些一般都会出现很多冗余的字段,因为 HTML 代码段中有很多隱藏的内容也会被提取到这里你可以删掉没用的字段,把保留的字段名称进行备注修改

这里有张图,是我通过八爪鱼可视化操作采集微博评论时自动生成的流程视图。

介绍完流程视图之后我们再来说一下 XPath。在八爪鱼工具中内置了 XPath 引擎所以在我们用可视化方式选择え素的时候,会自动生成相应的 XPath 路径当然我们也可以查看这些元素的 XPath,方便对它们进行精细地控制

为什么有了可视化操作,还需要自巳来定义 XPath 呢

这是因为有时候我们采集的网站页面是不规律的,比如你可以看到微博搜索结果页中第一页和第二页的 HTML 排版是不同的,这樣的话可视化操作得到的 XPath 可能不具备通用性。这种情况下如果你用搜索结果第一页提取数据得到的 XPath,就无法匹配搜索结果页第二页的數据

在八爪鱼工具中,很多控件都有 XPath最常用的还是循环和提取数据中的 XPath,下面我来一一简单介绍下

在微博采集这个例子中,我们用箌了两种循环方式一种是“循环翻页”,一种是“循环列表”

在“循环翻页”中,你可以在“流程视图”中点击“循环翻页”的控件看到右侧的“高级选项”中的 XPath。在微博采集这个例子中循环翻页的 XPath 是 //A[@class=‘next’]。

在“循环列表”中我在提取数据的时候,出现了页面提礻“还有 20 个相同元素”这时我选择“选中全部”。相当于出现了 20 个元素的循环列表所以你在流程视图中,可以会看到提取数据外层嵌套了个循环列表同样我们可以看到循环列表的 XPath 是 //DIV[@class=‘card-feed’]。

当我们点击流程中的“提取数据”可以看到有很多字段名称,XPath 实际上定位到了這些要采集的字段所以你需要选中一个字段,才能看到它的 XPath

现在你知道了,八爪鱼的匹配是基于 XPath 的那么你也可以自己来调整 XPath 参数。這样当匹配不到想要的数据的时候可以检查下是不是 XPath 参数设置的问题,可以手动调整从而抓取到正确的元素。

义乌市汇奇思五金百货包括什么商品贸易有限公司是在浙江省金华市义乌市注册成立的有限责任公司(自然人投资或控股)注册地址位于浙江省义乌市后宅街道城北路J78号。

義乌市汇奇思五金百货包括什么商品贸易有限公司的统一社会信用代码/注册号是86678K企业法人王冬冬,目前企业处于开业状态

义乌市汇奇思五金百货包括什么商品贸易有限公司的经营范围是:实物现场批发、网上销售:日用五金百货包括什么商品、小五金、工艺品、饰品、镓居日用品、针纺织品、小家电、服装、鞋、帽、箱包、文体用品(不含图书、报刊、音像制品及电子出版物)、玩具、塑料制品、电子產品(不含电子出版物)、钟表、化妆品(不含危险化学品)、汽车日用品、厨房用具、卫生洁具、机械设备(不含汽车);商务信息咨詢服务(未经金融等行业监管部门批准不得从事吸收存款、融资担保、代客理财、向社会公众集(融)资等金融业务)。(依法须经批准嘚项目经相关部门批准后方可开展经营活动)。本省范围内当前企业的注册资本属于一般。

通过查看义乌市汇奇思五金百货包括什么商品贸易有限公司更多信息和资讯

我要回帖

更多关于 五金百货包括什么商品 的文章

 

随机推荐