电商企业最好用的电商erpEr p系统是哪.家?

上一篇文章讲解了产品的数据都有哪些,设计师可以通过数据进行设计决策,并且分享了“数据好体验不一定会好的这个观点”。今天这一篇文章咱们聊一聊“用什么度量产品体验”这个知识点。流量红利退去进入互联网下半场,所有产品都在比拼产品体验,这些年体验的设计价值越来越多受到公司重视,几乎所有的互联网公司,都会说:“产品(用户)体验设计”,但是大部分产品设计从业者,都弄不明白“产品(用户)体验设计到底是什么?产品上线了我们怎么去衡量设计策略的有效性,以及怎么评估现阶段产品的产品(用户)体验”的状况。这篇文章,我们就把目光锁定到“用户体验”和“衡量标注”两个问题上。*文章结尾我将分享腾讯中国用户体验行业发展报告,最近总有粉丝反映链接过期问题,如果获取不到可以私信我。我们在项目中经常听到产品经理定的产品目标是“提升用户体验来提升产品数据”,貌似很多项目都能和用户体验沾点关系,首先让我们从了解“体验”概念这个角度,来解析为什么提升用户体验就可以提升产品数据。1.1 体验设计的概念产品(用户)体验设计,我们可以把这个词拆开来看看产品、用户、体验这三个词都各自代表的含义:产品:可以理解为用户在享受服务过程中承载服务的载体,比如手机、电脑、应用程序等。用户:广泛的含义是使用者,即产品的使用者或享受服务的人群。体验:这是一个过于宽泛和宏大的词,也是一个比较抽象概念,简单理解为用户对产品的主观感受,这个感受可能是好的,也可能是坏的。总结一句话体验设计就是用户与产品发生互动行为后,用户产生的心理感受。如果用户在产品使用场景中完成期望目标,所产生的愉悦的感受体验,称为好的用户体验。1.2 体验设计的原则产品(用户)体验设计 User Experience Design(以下简称体验设计)中“用户体验”的概念最早由Don Norman教授(曾任苹果用户体验架构师)在上世纪60年代提出并进行了系统性研究。他表明,用户体验设计,是用户在使用产品的直观感受,并归纳出好的用户体验应以用户为中心,是尊重用户的、是有效的、顺畅的、一致的、符合直觉的。后有人把Don Norman教授这段话归纳为体验设计应遵循“可用性、易用性、满意度”这三个原则,如图:1.3 体验设计是迭代的原因之一体验设计在产品迭代中有多重要,看下面这张图你就会懂了。现在互联网产品的迭代方式是“小步快跑,快速迭代”,产品迭代无外乎两个原因;· 产品利益:为了推出迎合市场的新功能,促使用户进行付费行为获取商业利益· 用户体验:不断优化产品体验、提升产品质量、不断地实现用户健康增长。由此可见,体验设计在产品迭代中拥有举足轻重的分量。1.4 体验设计的3种价值体验设计的价值体现在用户心理感受与产品业务价值发生关联的场景中,比如愉快的购物体验、高效的退货业务等这些场景都会促使用户信任产品从而提高用户下单率。在这些场景中就会体现体验设计的产品价值和商业价值,产品的页面清晰操作简单很容易触发用户愉悦的心理感受,从而进行下单的互动行为。另外我还要补充一点其设计价值,因为设计师是站在用户的角度考虑问题、解决问题的职业,而ui设计师的核心价值就是提升产品体验,所以综上所述,体验设计的价值在于设计价值、商业价值和产品价值这三点。2.1 衡量体验的所有指标体验是一个比较抽象的概念,很多场景中所表达的都是用户对产品的主观感受,最开始判断体验的指标也很抽象,后来人们把抽象的指标和埋点的数据相结合,通过数据去衡量比如页面访问次数、用户停留时间、产品加载速度等。*在工作中常会用到易用性、满意度、nps等维度再结合后台数据埋点这种方式进行用户行为分析来评估用户的体验指标是否达标。2.2 衡量体验的三个维度现在为了方便大家进行分类,大家把衡量体验的所有指标都是按照用户感受、用户行为、系统表现这三个维度进行度量:2.3 不同形态的产品体验目标各不相同用户感受、用户行为、系统表现只是一种简单的方法,大家要有这样一个认知,不同细分类型、不同生命周期的产品,对于各个指标的偏重也有所不同。如协同办公类的产品更注重协同性,而数据产品更注重易理解性和一致性。初创期的新产品需要容易上手,对易学性要求较高,而成熟期的产品可能更需要考虑各个角色的需求满足度。2.4 C端和B端产品的体验目标有啥不同市场上的产品主要分为两类c端和b端,因为两类产品的用户属性、盈利模式、产品定位不同,所以两类产品的体验目标各不相同,最大的区别在于用户、体验、数据上的不同,接下来让我们聊一聊两款产品的体验目标侧重点各自都是什么。a c端产品体验的侧重点c端(Consumer)产品通常指消费者或者个人终端用户使用的客户端,类似产品有微信、知乎、qQ音乐等产品。因为c端产品的用户忠诚度较低,一言不合就换产品使用,所以为了留住用户各大产品不惜成本追求极致的体验。帮助用户解决需求的同时,与其他竞品相比产品的整体体验相对有趣是现在c端产品的体验目标。b b端产品体验的侧重点B端(Business),通常为企业员工或商家使用的系统或平台,类似产品有SaaS软件服务系统——微盟、oA办公自动化系统——飞书、cRM客户管理系统——销帮帮等产品。而B端产品具有链路冗长、操作复杂等特点。b端的产品体验核心是降低用户上手门槛,提高产品的工作效率,帮助用户高效地完成工作任务是现在B端产品的体验目标。*在B端产品中经常会提及“易用性”这个专业名词,为什么呢?那是因为B端产品针对的是商家,用户,所以对于这类用户高效是他们的核心需求,那怎么样才是高效呢,那就是后台系统要做得极其简单也就是产品的易用性要高。通过上面讲解大家可以了解到判断用户体验的具体产品数据和抽象概念的指标有很多,这里我着重讲解三个在行业内使用最为常用的三个比较主观的体验指标,即满意度、净推荐值、费力度。为什么只讲解这三个呢,那是因为这三大评估指标分别代表体验设计的设计价值、商业价值以及产品价值。3.1 设计价值——满意度(CSAT)这应该是最经典的衡量指标了,也是各大互联网对于产品来说最为看重的指标。早在于1965年“满意度”这个概念就被提出,在我们在生活中都可以看到关于客户满意度方面的调研功能,比如app storr对产品的体验,送完外卖对店家和送餐人员的服务点评等。优势:满意度的扩展性非常高,可以用于询问用户各种问题,可以看整体的产品体验满意度,也可以看具体的某个功能的满意度。劣势:满意度对未来行为的预测是最差的,满意度能够体现出用户对产品短期内的幸福感,但无法体现用户对产品的长期态度。3.2 商业价值——净推荐值(NPS)净推荐值是由贝恩咨询企业客户忠诚度业务的创始人佛瑞德·赖克霍徳(Fred Reichheld)在2003年提出,它把用户分为推荐者、被动者和批评者这三类,通过计量用户的推荐意愿的强烈度而判断用户的忠诚度。优势:他常作为未来的客户满意度指标,精准地测量某一项的客户满意度,与满意度相比这个指标更为直观,用于衡量用户长期的幸福感,也用于全链路全流程的满意,判断用户忠诚度,也可以看到项目未来一段时间的发展趋势。劣势:虽然获得的指标是最为直观的,但度量的缺陷往往只会反映一个用户视角所以会比较狭隘。并且设计的问题也不能证明推荐者会真的推荐,所以得到的结果并不一定是用户在现实生活中的推荐行为相关。3.3 产品价值——费力度(CES)客户费力度这个概念在2010年在《哈佛商业评论》中被提出,可以理解为是升级版,用于询问用户在产品使用过程中高频出现的问题,主要是为了满足用户的满意度但是无法体验用户的忠诚度的用户所设计的。优势:帮助产品设计发现和解决复杂流程中的问题,比如B端产品中,可以通过数值的表现,对下一次改版进行想法升级。劣势:对于衡量产品质量比较适合,但不是很适合衡量品牌在用户中的价值地位。并且能用来挖掘用户真实的评价和需求痛点。*在这里还有一个知识点向大家普及,就是可用性测试——SUM。每个设计师都在遇到这样的问题;设计领导:你怎么证明你的设计方案比其他设计同事好?开发同事:你们设计只关心美不美,浪费研发资源产品经理:我觉得这个功能优化并没有比竞品的好?公司老板:你们对产品盈利都做了哪些什么贡献?我们在做真实项目的时候会发现几乎所有的设计策略都能和用户体验扯上关系,比如我们通过xxx提升了用户体验从而提升用户在xxx场景的用户满意度。这样折腾了一圈,但是发现好像有些产品没有什么实质性的效果,设计很难度量也很难凸显设计的价值。1.1 设计度量的意义a 体验面前的拦路虎其实上面这个问题曾经其实也困扰了我很久,但随着做的项目越来越多,我现在从体验设计师的角度尝试回答这个问题:1)“体验”是用户纯主观的感受,概念比较抽象,从这个情况来看是很难被度量的。2)促成体验好与不好的因素有很多,很难直接定位体验问题的根本原因。3)现在产品迭代频繁,提升了一个场景的体验,往往另一个场景体验问题就会暴露,很难确定产品终极目标。但是作为体验设计师,我们需要在项目中对体验有以下三点比较清楚的认知:·体验是直观的用户体验感受和清晰的设计价值体现。·体验要以体验为中心做有价值性的探索设计破局点。·体验需要对设计产品迭代有明确的改版目标。b 度量的意义我们要完成设计师的使命,在项目中凸显设计的价值,所以我们需要一套科学的、成体系的、可量化用户的体验完整的度量框架,能够聚焦用户体验问题作为驱动、提炼提升产品体验的目标,从体验角度解决体验需求。项目中的度量有其三点意义:1)可以具象化有刻度地体现用户主观感受的测量工具。2)可以通过度量提炼出以用户行为作为产品迭代目标。3)可以更好地根据自己公司业务场景搭建体验设计体系。现在很多公司都有自己的度量体系,比如阿里,滴滴为体现设计在业务中创造的价值,都有自己的设计质量评估体系。他们通过划分场景、量化设计可以更准确地分析出那个体验的根本问题。并且评估潜在用户的体验感受,为之后的产品改版找到体验优化方向。1.2 设计度量的概念度量的概念在我们的生活中很常见,以下是对度量比较严谨的概念解释:*【度量Measure】是一种测量评定对象的方法,它帮助我们结构化地获取对象的状态与变化,我们运用这些数据进行洞察,转化为有用的信息,帮助决策和优化,这个过程也是分析诊断的过程。用户体验度量体系是可以通过某种形式测量采集得到的,例如对用户无感知的埋点法、由用户直接反馈的问卷法等等,设计度量作为项目中重要一环,不仅能够验证产品及设计策略的有效性,还可以有效验证了我们服务化升级目标及设计目标拆解的精准性,也为后续优化带来了更多的线索。所以设计度量的建立应具有有效性、稳定性、针对性、扩展性、可持续性这五个原则。2.1 有效性我们通过某种形式测量产品体验时候,把保证“体验好”转化为可以测量的概念,如用户留存率、流失率、关键操作的完成率等,通过这些直观数据的改变去衡量抽象体验的问题,在这个过程中需要保证数据结果是真实有效的。2.2 稳定性人与人之间的体验差异本身是具有差异性的,用设计度量时候人的感受往往会受到环境、情绪等影响,产生随机误差。我们需要度量的结果尽量减少外界环境的干扰,出于这个目的度量需要具有一定的稳定性才能进行真实结果反馈。2.3 针对性可以反映用户体验问题的指标有很多,数据埋点也有很多。本身数据是有欺骗性的,所以我们在做设计度量时应该划分场景,即不同场景对应不同的数据埋点,有明确的度量目标,才能做到只聚焦某个产品的端上体验问题,那这个度量结果才有针对性。2.4 扩展性我们要保证输出的指标和测量模型,不仅适用于整体,也可以针对某个场景某一个交互环节,某个界面进行度量的测量,度量应该具备扩展性。2.5 可持续性度量的目的不仅是反映当时产品存在的问题,也要预测出未来产品规划方向,度量指标的可持续性应持续观察、跟踪、和优化指标,使得度量体系可以贯穿在产品整个生命周期中,也利于对产品迭代优化后指标数据的前后对比。可用性测试大家一定经常听,在很多测试场景,我们很容易把体验度量和可用性测试的概念相混淆。可用性测试:通常是在开发完成之前,让用户完成特定的任务,通过观察用户在使用产品时的反馈,从中发现设计中存在的可用性问题的一种测试方法,其目的就是为了付出最小可行产品来做正确的设计,避免消耗太多开发资源做产品。体验度量:是一种更宏观的视角,强调用户与产品之间的整体交互,以及在交互过程中形成的想法、感受和感知。用户判断产品现在阶段暴露出来的体验类型问题,对未来设计的一种预判。“满意度—有用”,“净推荐值—有效”,“费力度—易用”这几个观测维度贯穿了互联网1.0到4.0时代,在不同时期,各类模型普遍都会涉及,根据以上三点严格的度量的标准和具有较强的普适性、通用性的度量模型,接下来我将带领大家一一了解这些度量模型都有哪些。方便大家区分可以把度量标准梳理成国际标准和国内标准两个部分,大家了解即可。1.1 国际的标准A ISO-9126 软件质量模型ISO/IEC 9126 (1991) 软件质量模型是一种评价软件质量的国际标准,包括3个层次,由6个特性和27个子特性组成:1)质量特性2)质量子特性3)度量指标* 在这里设计师应该注意「适应性」、「易安装性」、「易理解」、「易学」、「易操作」和「一致性」,产品应注意「共存性」「易替换性」和「可移植性的依从性」,其中「易用性」的概念涵盖了用户体验中常规易用性的维度。b BS ISO/IEC 25010-2011软件产品质量需求和评估(SQuaRE)该模型是ISO/IEC 9126的升级版,包含8个特性和36个子特性,相对比较全面的了,大家可以从各特性的定义、范围与度量标准评估自己产品。1.2 国内的标准A SO-9126 软件质量模型,评价软件质量的国际标准该模型重新定义了「效益」、「效率」、「满意度」即定义为一个产品可以被特定用户,在特定场景下,达成特定目标的效益,效率和满意度。1)效益(effectiveness):用户完成任务的精确性和完整性。2)效率(efficiency):用户完成任务所消耗的资源。3)满意度(satisfaction):用户对任务流程的可接受程度。b ISO-9241 关于办公室环境下交互式计算机系统的人类工效学国际SO9241对Usablity的定义,在今日的设计质量评估仍旧有很强的指导性和应用性,具备很强的可操作性。比较重视「效率」和「效益」这两个维度,在任务完成程度和所消耗的时间/人力资源的场景下,评估出特定任务的可用性,在流程较长的B端产品体验度量中尤为常用标准。1.3 其他这里我还查阅到和体验有关的国外资料,称之为标准也可以、称之为模型也没错,他们分别是“蜂巢模型、尼尔森十大可用性原则、USE量表”,有兴趣的同学可以自行查找了解。度量模型也分为国内和国外这两部分讲解,这里介绍常用的8种类型,其中HEART模型是目前比较成熟的体验度量模型,也是各大互联网公司的应用最广泛,普及率是最好的模型之一了。2.1国外模型a 谷歌HEART模型HEART是GOOGLE公司基于商业和技术的产品评估体系提出的模型概念,它包含5个维度,适用于市面上大多数C端类产品。这五个维度分别是:1)愉悦度:用户主观的体验即使用产品或者功能时是否会感觉到愉悦感。2)参与度:用户对产品内容是否感兴趣并愿意主动分享给其他人。3)接受度:用户看到新产品或新功能可以接受并且愿意尝试新的功能。4)留存度:在一段时间后,新、旧用户是否愿意回来继续使用产品。5)任务完成度:在使用过程中,用户能够高效,准确、流畅地完成当前任务。如果结合上一篇数据认知的文章,就可以通过以下数据去衡量产品的体验度量,如下图:这个模型虽然是全维度、多参数、多角度、系统性的评估方式也是目前普及率最高的,但是也有其自身缺点。b 门户电商PULSE模型PULSE模型以网站为维度来衡量体验的模型,通过商业指标和技术指标,衡量网站的整体表现。同样包含5个维度:1)页面浏览量:属于产品指标,指页面被用户访问的次数,以及页面的点击转化情况。2)运行时间:属于技术指标,指衡量网站可以持续稳定地运行时长。3)系统延迟:属于技术指标,指衡量用户打开页面的速度是否流畅。4)周用户活跃:属于产品指标,反映网站的实际运营情况,估计产品的用户规模。5)商业收益:属于商业指标,指产品的营收情况,不同类型的产品类别是不同的,比如电商类更关注GMV等指标,视频业务关注广告,电子书业务关注VIP售卖等。c 谷歌GSM模型GSM模型是Google的用户体验团队提出的一种指标体系,即目标(Goal)、信号(Signal)、指标(Metric)这三个维度作为另外横向的参考维度,他最有价值的一点是把GSM模型和HEART模型相结合,设计一个更为全面的体验度量模型,具体内容如下图。2.2 国内模型A 阿里云UES模型UES应用场景更加适合B端产品。是阿里云设计中心基于易用性量表扩展而成的度量模型,它的核心维度包括易用性、一致性、满意度、任务页效率、性能。其中易用性是B端产品的重要属性,他的背后就是易用性量表的标准,与常规的易用性量表相对来说更为成熟和精细化。B 阿里妈妈四项五度模型四项五度模型应用场景更加适合C端产品。它是阿里巴巴1688UED团队在Google的HEART模型的基础上升级的度量模型,从用户的行为角度出发,四项分别是「当下、未来、态度、行为」;五度分别为「吸引度、完成度、满意度、忠诚度和推荐度」。c 酷家乐四象模型四象模型是面向工具类产品的体验度量方案,它以「角色」与「心智」「功能」和「性能」这四个维度,分析人与工具之间的微妙关系。D 58同城B-MetricB-Metric是一个关注业务特点与用户角色的度量模型,也是一个比较全面的指标体系,该体系包含基础体验、角色体验、企业价值三大部分,基础体验是提供产品最基础体验的保证;角色体验则是我们在设计产品最为关心的体验维度;企业价值是产品所带来的盈利情况,也是体验相关的实际价值,如图:E 支付宝PTECH模型PTECH模型是阿里巴巴支付宝团队设计的度量模型,它是基于HEART模型升级后基于用户行为分析和应用性能检测的模型,比如:将愉悦度改为满意度,将任务完成度改为任务体验,在参与度下并入接受度、弱化留存率,引入清晰度与性能体验的全新维度。2.3 三种测量方法模型种类有很多,这里说明一下测量三种方法,大家简单了解即可。前面讲到了体验是一个抽象的概念,必须要有数据这种比较具象的概念做支撑,在《u一点料》这本书中,作者把数据比喻成设计的理性之光,我这种观点认为用在度量上也不为过,因为度量的体系是建立在数据之上的。而这种度量体系的搭建本身就是为了用户着想,以创造用户价值为出发点的体系。所以我认为度量体系的搭建应该具备两种模式,即“数据驱动+体验驱动”这两种模式。体验度量体系虽然是一种很复杂的体系,但是如果以化繁为简的思路去刨析它的话,我们可以将这种复杂的体系概括为三个层级来解决问题:聚焦体验的问题——体验目标的指标——后续指标的追踪。聚焦体验的问题:就是在业务链路中找出最能提升用户体验的关键问题,并把这个问题进行可度量的转化,换一个角度说找出的这个问题也是我们搭建度量体系的目标。体验目标的指标:当体验目标被我们明确之后,就可以利用市面上现存的度量体系来进行度量纬度的测量,当然也可以理解为这是定义体验标准的过程,既然有标准一定会有定义标准的指标,而筛选体验目标的指标就是在这个环节被筛选出来的。后续指标的追踪:这一个环节就是首位的环节了,其中包括验收和追踪两个步骤,在度量体系的标注中客观地捕捉其变量的特征,为后续的项目改版方向提供线索支撑。2.1 第一步凡事都需要有一个目标,确立体验目标就是体验度量的开始,清晰准确的目标决定度量体系的最终质量。这里有两个方法可以帮助我们梳理出用户的产品的体验目标。以下内容我以金融产品为例子讲解每个步骤我们应该做什么。a 利用kcon模型划分需求范围体验和需求分不开的,在卡诺模型(KANO)中,将产品功能的需求分为五种属性:必备型需求、期望型需求、兴奋型需求、无差异型需求、反向型需求。以金融类产品为例子,我们需要找到必备型需求、期望型需求、兴奋型需求,来确定用户的需求都有哪些。b 通过定性、定量确定体验目标也可以通过定性、定量的方式把划分后的需求,梳理成以满意度、易用度、有效性为三个纬度的体验目标,比如满意度:产品内容对用户的吸引力、产品界面是否美观友好给人舒适感觉、客服是否专业性高可以及时有效地回复用户问题、用户对品牌是否表示认可是否用户对品牌有赞美,用户对产品是否有信任感觉、用户是否愿意持续使用产品等。易用性:是指产品功能对用户的难易程度,比如功能入口是否容易识别,用户是否能快速找到自己所需要的内容,产品操作步骤是否简单符合用户习惯、用户在浏览内容适合时是否可以快速阅读和理解、产品对用户不恰当的操作是否有提示和限制,产品对用户的错误操作是否有提示,用户能否快速地知晓产品的使用等。有效性:用户账户资金是否安全、产品提供的内容服务是否有价值、用户可以顺利完成核心任务、产品基础功能是否健全完备、产品提供的信息内容是否准确完整、用户查询信息和提交信息是否能及时响应、产品运行速度是否稳定。2.2 第二步A 筛选最佳度量模型或者工具前面讲了很多关于度量模型的知识点,如果你在之前的工作中没有接触到度量模型,那么这里我将讲解一些关于“怎么选择度量模型”的办法。行业界内的体验度量上的方案,大致可以用“客观度量、主观度量、主观&客观结合度量”这三个纬度进行区分。客观衡量法:通过数据埋点监测用户行为数据。比如经典的 PULSE 模型,还有大家熟悉的运营指标,活跃用户数、留存率、点击率等等。主观衡量法:就是收集用户主观的评分。比如满意度、费力度,可用性测试量表(如SUS)等等。主观+客观衡量法:把用户行为数据和主观的评分结合起来,多数用归一化方式得出一个总分,把分数划分成不同档次作参考。比如Google 经典的 HEART 模型,PTECH 模型,阿里云UES模型、58同城B-Metric等等。*在这里我还是比较推荐使用 HEART 模型(Google),因为他的五个纬度包含了定性和定量两个数据纬度,也可以从宏观和微观两个角度解析产品。b 结合数据验证模型上一篇文章《数据认知篇》简单地介绍几种数据测试的方法,比如A&b TASR测试、灰度测试、可用性测试的方法,这里就可以派上用场。通过测试中的订单量、点击率,活跃度的数据波动我们可以直观地对应出我们产品质量、系统性能等的体验类型的问题。这样我们的体验度量体系的雏形就搭建完成。2.3 持续监测,不断优化最终我们集合成这样的表格就可以了。度量体系最重要的就是发现具体的体验问题以及后续的改进方向。明确体验目标:我们产品目前存在什么体验问题,他的严重程度有多少,是否对产品的盈利造成影响。改进方向:我们要改进什么场景,要用什么设计策略怎么提升产品的用户体验等。总结体验设计是产品的重要一环,除了研发,持续的用户体验活动可以使每个人的努力更有效和更有价值。在设计过程的每个阶段,不同的用户体验方法可以使产品开发工作保持在正确的轨道上,符合用户的真实需求而不是想象中的需求。产品的体验研究,研究得越早,研究结果对您的产品的影响就越大,而且根据最后的体验定义,有助于作出现阶段或者未来产品的迭代规划。在所有阶段进行用户研究,正如我们在下面展示的,在任何合理的项目计划的每个阶段都有一些有用的东西可以学习,每个研究步骤都会增加你的产品价值。以下是我在国外网站搜集到的一篇关于“用户研究的方法”,文章地址我输入到文章末尾处。文章很长,感谢您的阅读。下期预告《品牌设计|为什么你的设计没有品牌感》。参考文献[1] 调研百科
客户体验的几个重要指标,分别有什么特点与应用https://zhuanlan.zhihu.com/p/366703776[2] 设计研究院 Vol.5
B-Metric,企业产品体验度量极简指南https://zhuanlan.zhihu.com/p/366703776[3] 体验度量专题|易用度在企业级中后台产品的探索和实践https://mp.weixin.qq.com/s/sX9SauijjXfQ6bOcJaCluQ[4] 体验设计度量,看这一篇就够了(上篇)https://mp.weixin.qq.com/s/UDNeOcp--7-n66-rKj2dwg工具网站https://www.behance.net/gallery/107757793/2020-2021-(需要特殊方法才可以查阅,你懂的。)《腾讯中国用户体验行业发展报告》获取方式:关注“斜杠7湿兄”公众号,发送文字“7978”,即可获得获取方式~作者:斜杠7湿兄本文由@斜杠7湿兄原创发布于UI中国。Powered by Froala Editor
万字长文!近40家创业公司!带你了解实时数据系统领域创业新动向!奥斯汀,世界现场音乐之都(Live Music Capital of the World)。这座位于美国得克萨斯州的城市,因为近年来科技巨头的涌入,正在成为新兴的科技之城。由于其便利的交通与地理位置(位于美国中部),奥斯汀也吸引了越来越多的科技大会选择在此举行。这几天我也有幸在一年内第二次来到奥斯汀,参加数据系统领域的顶级科技大会 — Current 2022。说到Current这个名字,大家也许感到陌生。但其另一个名字应该对各位工程师来说并不陌生:Kafka Summit。由于品牌等各方面的原因,活动的主办方,数据系统领域的巨头Confluent,决定将2022年的Kafka Summit更名为Current。奥斯汀机场一隅德克萨斯州州议会大厦Current大会宣传的重点就是实时数据系统。不同于被广泛采用的大数据处理平台(例如Apache Hadoop、Apache Spark、Apache Hive等)或是数据仓库(例如Snowflake、Redshift、BigQuery等),实时数据系统强调的是对实时产生的数据进行实时的计算与存储。在近年,由于实时报表、实时监控、实时追踪等应用的兴起,实时数据系统领域正在市场上逐步得到认可。该领域的翘楚Confluent公司也于2021年中成功IPO,带动了新的一波实时数据系统研发与应用的浪潮。Current大会赞助商展台想要了解一个领域的未来发展方向,一个很好的方法便是去了解该领域的初创公司们都在做些什么。在Current大会的两天中,我聊遍了所有Current大会的赞助商们。除了个别行业巨头之外,多数的大会赞助商为该领域的初创公司。在本文,我就结合自己的理解,带着大家认识一下这些初创公司们,以此了解实时数据系统领域的未来。本文安排如下:首先我会对这些公司进行分类整理,分享一下自己的观察,提出我认为的潜在风险,之后我再逐一介绍各个创业公司的核心业务。声明:本文只去介绍参与赞助Current大会的初创公司们,且本文将尽可能保证评论的客观公正,但并不对公司的具体业务发展情况负责。本文并不构成任何对特定公司的投资建议,不过本人的确推荐各位对该领域进行长期投资 :-)创业方向分类通过对参展的各个创业公司的分析,我们可以将创业方向划分成以下几个大类:云上商业化成熟开源项目该类别包含了Databricks,Aiven,Conduktor,Imply,StreamNative,StarTree,Immerok,Factorhouse等。这类公司基本可以划分成三种发展模式:1)项目主创团队出来创业。这类公司包括了Databricks,Imply,StreamNative,StarTree,Immerok等。他们的核心卖点之一就是“正统性”,通过对开源项目强有力的把控来引导项目发展方向,并通过社区尝试将开源用户转向付费用户。2)非主创团队创业。这类公司包括了Conduktor,Factorhouse等。他们通常会选择强调云平台的多方向开发,从独特角度如安全、可视化、系统集成等方面来寻找差异化。3)直接商业化多个开源项目。Aiven就是其中的典型。通过在云上提供不同开源项目的托管服务,这类公司可以很好的削弱不同项目之间的割裂感,为用户提供整套解决方案。实时ETL/ELT/数据集成该类别包含了Decodable,Striim,Airbyte等。Airbyte专注于ELT,而Decodable与Striim更多的是在做ETL。很显著的一个特点就在于这类公司都在以易用性核心卖点,例如Decodable就强调用户只需要在平台上点几个按钮然后写SQL就能实现从一个数据库到另一个数据库的实时数据变换和导入。消息队列该类别包含了StreamNative,Redpanda等。消息队列是大家都十分熟悉的基础软件了。Kafka相信没有人没用过,它背后的公司也是本次大会的主办方Confluent。消息队列在过去十年已经充分证明了它的价值。但这并不代表消息队列的发展迎来了尽头。在云原生的新时代这个方向又出现了新的挑战者们,基于存算分离等新技术推出新的产品,实现降本增效。实时API该类别包含了Aklivity,Macrometa等。这类公司填补了从数据源到数据访问中间的空缺,让用户很容易的访问到实时接入的数据。边缘计算该类别包含了Ably等。这一类公司主打部署在近数据源的边缘设备上的实时数据处理。实时数据的一个很重要的来源就是终端产生的数据,比如传感器手机等等。为了降低延时,实时计算的组建需要部署到设备端以便更贴近数据源,而不是一味的集中到云上的数据中心里。这也给基础软件提出了新的需求和挑战。实时垂直行业SaaS该类别包含了Clear Street,Bicycle等。这类公司主打实时数据分析在垂直行业里的应用。这类公司的发展,将证明实时计算在一些特定行业已经能够被大规模落地。实时高级语言框架该类别包含了Quix,Meroxa等。 这类公司面向的对象是会使用特定编程语言(如Python等)的群体。实时分析型数据库该类别包含了Imply,StarTree,InfluxData,Rockset,FeatureBase等等。这一类产品主打的是提升传统分析型数据库在接入实时数据上的能力,降低传统分析型数据库在入库时的高延迟。他们都提供SQL接口,允许用户像使用传统数据库一样对数据进行分析查询。流数据库该类别包含了RisingWave,Materialize,DeltaStream,TimePlus等。与实时分析型数据库类似,他们都提供SQL接口,支持数据的实时写入。但在此基础之上,流数据库往前迈了一步,支持数据的实时计算。从技术上来讲,流数据库将流处理技术集成进数据中,通过增量计算实现查询结果是实时和持续的更新。创业时间我们按照成立年份总结成下表:年份公司数量2012InfluxData, Striim22013Databricks12014Slower12015Imply, Oxylabs, Swim32016Aiven, Ably, Rockset, Memgraph, Nussknacker52017Macrometa, FeatureBase22018Acceldata, Clear Street, StarTree32019Conduktor, Materialize, StreamNative, Cube,Redpanda, Tinybird, Meroxa72020Bicycle, Airbyte, CelerData, DeltaStream, Factorhouse, LakeFS62021RisingWave, Decodable, Aklivity, Timeplus42022Immerok1很显然,2019,2020,2021年这三年是实时数据创业的黄金年份。在2019年之前,实时计算领域还远不如如今这么火热。但近年来随着传统的批数据处理进入瓶颈期,实时数据处理开始引起人们的注意。2021年Confluent上市的标志性事件又为实时数据处理这个赛道注入了新的信心。现在毫不夸张的说,实时计算是当下最火爆的赛道之一。创业趋势很显然,实时数据系统这一领域已经逐步从小规模被科技巨头应用走向了批量被普罗大众所使用的阶段。如果说Confluent的IPO证明了广大企业都有存储实时数据的需求的话,那么现在这波实时数据系统领域的创业公司很多都在想去证明用户同样有在实时数据上做计算的需求。这波实时数据系统领域的创业公司切入点各有不同。从实时API到实时分析型数据库到流数据库,尽管从宏观角度看似乎类似,但大家实际上都在找细分领域做差异化。例如实时API领域面向的用户更多的是应用开发者,而事实高级语言框架面向的更多的是数据分析师与数据科学家。无论是哪个细分领域,我们都能够看到,实时计算已经迎来了下一波浪潮。创业挑战坦白说,我觉得实时数据系统领域,或者说整个数据系统领域,从技术层面来讲并没有什么真正的不可逾越的挑战。毕竟无非大家都是在玩性能与资源平衡的游戏。我是非常看好实时数据系统领域的。当然了,如果我不看好这个领域,也不会在这个领域创业。那么到底存不存在挑战呢?我觉得还是存在的。最大的挑战来自于市场尚未成熟。一个技术是否能够迎来爆发式发展,并不是在于技术有多么先进,而是在于技术是否与市场需求所匹配。流处理概念最早在20年前就在学术界提出,并在工业界落地,但是过去二十年一直出于不温不火的状态。尽管有些科技巨头已经采用了这样的技术,但是这并不意味着这样的技术能够被广泛的应用到各个公司中去。这就是典型的技术与市场不匹配导致的问题。而如今,在实时数据系统这个领域,我们的确很明显的感受到市场的升温,但离被像Oracle或是云计算领域新贵Snowflake一样被广泛接受与认可尚需时日。我预测这个时间大概是2-5年。在这段时间内,在这个行业的创业公司不得不需要去花大量时间与精力于教育市场。这一投入是巨大的,也是充满未知的。当然了,正如我们都知道的,挑战与机遇并存,谁能够在挑战中把握到机遇,谁就将最终成为市场的主宰者。创业公司详解接下来我们罗列一下Current大会赞助商中的那些创业公司。在这里,我们列举的标准是近十年成立的非上市公司(即2012年之后成立的公司)。至于那些巨头、被收购公司或是老牌公司们(例如AWS,Google,Microsoft等),我就不在此一一介绍了。RisingWave官网:https://www.risingwave-labs.com/创立年份:2021年关键词:流处理,数据库融资轮次:A轮最近一轮融资年份:2022年在此先介绍一下我司RisingWave Labs。我们于2021年年初成立,在过去的两年里,我们已经成长为横跨7个时区的完全分布式团队。RisingWave一直专注于开发云原生流式数据库。其核心思想就是让流处理变得像操作普通SQL数据库一样简单。为了做流处理,用户唯一需要做的就是创建物化视图。整个数据库是从头用Rust写的,主要也是看中了Rust语言高效安全的特点。与如今流行的一些系统类似,RisingWave完全不依赖于JVM生态,部署运维都非常简单。作为使用Apache协议开源的项目,RisingWave商业化模式还是提供云服务。目前private preview版本已经发布,预计明年会发布GA版本。作为流式数据库,用户可以处理流数据,同时也可以存储数据。这也就意味着用户可以直接在数据库上进行查询。很多人都会想到流批一体这个很火的概念。RisingWave目前还是更加侧重在流处理上,具体批处理的能力如何,还是得看具体工程实现优先级了。Databricks官网:https://www.databricks.com/创立年份:2013年关键词:湖仓,数据平台融资轮次: Pre-IPO最近一轮融资年份:2021年其实不用我介绍,大家应该都已经对Databricks这家公司不感到陌生了。这家一级市场估值高达380亿美金的公司,以Apache Spark起家,正朝着大一统的lakehouse方向(即湖仓一体)迈进。在今年,Databricks的营收也超过了10亿美金。如果没有意外的话,想必这家公司会在未来两年内成功IPO。Databricks正稳步朝实时计算方向发展。他家的Spark Streaming也是其核心发展方向之一,今年也宣布即将推出下一代Spark Streaming引擎Lightspeed。但由于Lightspeed还没有正式开源,我就不多展开了。Slower官网:http://slower.ai/创立年份:2014年关键词:-融资轮次: -最近一轮融资年份:-slower是一家神秘的公司。作为一家号称2014年就成立的公司,我们并没法在网上找到任何有效的信息,而其官网也只是简简单单一个公司logo罢了。经过跟他们员工的交流,我了解到他家主要是在为各种企业提供各种云上以及私有化部署软件解决方案,业务涵盖了数据库、数据平台、数据管理工具、机器学习平台、安全等等。总的来说,是个全能型解决方案团队。由于其团队过于神秘,在这里我还是点到为止,不扩展下去。Aiven官网:https://aiven.io/创立年份:2016年关键词:开源,云服务融资轮次: D轮最近一轮融资年份:2022年Aiven是一家总部位于赫尔辛基的云服务提供商。与很多其他创业不同的是,他们说的故事并不是某开源项目核心成员出来开公司商业化开源项目,而是说自己能够提供各种各样开源服务的云托管服务!从Kafka到Flink,从ClickHouse到InfluxDB,从MySQL到PostgreSQL,只要是主流的开源项目,他们都能够提供托管服务。粗看来感觉这么做并没有什么特别的竞争力,但实际他们应该是解决了用户很大的一个痛点,即软件选择的问题。当今的数据软件实在太多太复杂。为了构建复杂应用,企业往往得使用多种软件。通过提供全套云服务,相信会很大程度上解决用户选择软件的难题。不仅如此,统一的管理界面会使得软件之间的连接更加流畅,没有很强的割裂感,相信这也是个不错的优势。Conduktor官网:https://www.conduktor.io/创立年份:2019年关键词:Apache Kafka,云服务融资轮次: A轮最近一轮融资年份:2021年Apache Kafka是一个分布式的时间消息存储系统。只要有数据流,就可以用Apache Kafka来进行存储。然而有这个存储系统是不够的,我们还要去部署、运维、操作这个系统,对这个系统进行监控,对这个系统上的数据进行分析与管理。Conduktor这家公司就是做了这一系列事情。他们的标语是“Streamline Apache Kafka”。本以为是跟Confluent做的事情高度相似,跟他们的CTO聊了一下之后才知道他们不仅仅只做Kafka的托管服务,更重要的是对数据的分析与管理。比如,你可以通过他们的平台去了解你存在Kafka中的数据质量是否可控,或者希望对数据进行查询或者监控。这本质上是把Kafka当作了数据平台,用户不再需要把数据导入到下游的数据仓库或者数据湖中,而是在Kafka内部便可以对数据进行处理。相信这是一个不错的角度。Decodable官网:https://www.decodable.co/创立年份:2021年关键词:数据管道,数据工程,云服务融资轮次: A轮最近一轮融资年份:2022年Decodable是2021年诞生的数据工程领域的新秀。他家专注的点是个大家非常熟悉的问题:数据的ETL。提供ETL能力的平台数不胜数,那么Decodable的切入点是什么呢?其实也很简单,就是为工程师提供了一个非常简洁易用的平台:通过简单的点击以及编写SQL代码,就能够将数据从一个平台(例如Apache Kafka,Apache Pulsar)导入到另一个平台(例如Snowflake,Redshift)。而且他们提供的是云服务,用户无需在本地完成任何软件便可连接云上的数据库。相信这也是非常不错的产品。Imply官网:https://imply.io/创立年份:2015年关键词:Apache Druid,实时分析,数据库融资轮次: D轮最近一轮融资年份:2022年相信做数据库的工程师们应该对Imply不会感到过于陌生。他家所商业化的产品Apache Druid是一款业界知名的实时分析引擎。其核心解决的问题就是对大规模数据上的随机复杂查询做出低延迟响应。尽管近年来在实时分析领域诞生了诸多新的创业公司,但凭借着自己稳定的性能,Imply从客户量上还是保持着相对领先的地位。Materialize官网:https://materialize.com/创立年份:2019年关键词:流处理,数据库融资轮次:C轮最近一轮融资年份:2021年Materialize算是我司最直接的友商了,与我司做的东西一样,Materialize的核心产品是流数据库。在Current大会上,他们终于发布了期待已久的产品:云上的流数据库。尽管Materialize从2019年开始就基于Timely Dataflow开源项目来构建流数据库,但长期以来,Materialize都是一个单机版的纯内存数据库,可用性在真实生产环境中可能会遇到不小的挑战。不过,这次的新版本相信会让大家眼前一亮,值得期待。StreamNative官网:https://streamnative.io/创立年份:2019年关键词:Apache Pulsar,消息队列,pub/sub融资轮次:A轮最近一轮融资年份:2021年StreamNative成立于2019年。虽然成立时间不长,但在开源社区和基础架构的圈子里StreamNative具有不错的知名度。他们的核心产品是商业化版本的Apache Pulsar。 从2016年开源以来,Apache Pulsar已经在全球范围内被诸多公司所采用。同样作为一款消息队列系统,Apache Pulsar与Apache Kafka有两大区别:一方面,相比于Kafka专注于事件数据的存储,Pulsar同时也关注应用内部所产生的消息数据;另一方面,Pulsar的架构更加云原生,其存算分离的架构能让整个系统变得更加可扩展。至于商业化层面,StreamNative目前也专注在云上为用户提供服务。Ably官网:https://ably.com/创立年份:2016年关键词:消息队列,pub/sub,边缘计算融资轮次:B轮最近一轮融资年份:2021年Ably是一家总部位于英国伦敦的提供云上的消息队列服务的公司。听到消息队列服务,大家肯定觉得他家的产品跟Kafka或是Pulsar类似。没错,Ably的产品从类别上的确跟Kafka有些类似,但是,他家最大的不同点是在做边缘计算(edge computing)。Kafka通常被部署在一家公司的数据中心,通过Kafka,我们可以用一种中心化的方式来去获得消息数据。而Ably的侧重点则是边缘,他家的产品可以部署在边缘云上,直接在设备端,例如手机、传感器、平板电脑等,进行处理,以此达到毫秒级的延迟。Ably已经成立了6个年头,累计融资也超过了8000万美元。Acceldata官网:https://www.acceldata.io/创立年份:2018年关键词:可观测性,云服务融资轮次:B轮最近一轮融资年份:2021年Acceldata是个云上的全面的数据可观测平台。可观测平台这个赛道近年来是卷的火热。除了市场的领导者Splunk以及Datadog外,还有各种各样的创业公司都在做这个赛道。根据与Acceldata员工的交流,我会认为他们是一个什么都做的可观测性平台,但这并不能让我很好的理解他们与Datadog等的区别。而如果深入的去了解他们的产品,我会发现他们更关注的是所谓“现代数据栈”上的各种系统的可观测性,而非机器本身或是CI/CD这些传统的应用的可观测性。也就是说,他们观测的对象是与其他公司所关注的略有差别。Aklivity官网:https://www.aklivity.io/创立年份:2021年关键词:实时API融资轮次:种子轮最近一轮融资年份:2022年Aklivity是一家目前仅有三个员工(含老板自己)的创业公司!我在一个酒会上与他们的三位员工都聊了一下,他们在做的是一个名字叫Zilla的开源API工具。目前已经获得了四百万美金的种子轮融资。他们在做的是一个实时API网关。简单来说,当用户使用Kafka的时候,根据设备或者应用的不同,可能会选用不同的接口对接Kafka,相对比较麻烦。Aklivity开发的Zilla相当于是在Kafka上做了一层统一的封装,这样不同的应用就可以以同样的方式来去接入Kafka了。Bicycle官网:https://bicycle.io/创立年份:2020年关键词:收入运营,SaaS融资轮次:未知最近一轮融资年份:未知在2022年的Current大会中,我们惊喜的发现了一些提供实时分析能力的SaaS产品。Bicycle就是其中之一。他家并不是在卖一个实时分析引擎,或者是实时分析存储,而是为电商平台等客户提供实时的数据监控、报警、分析功能。打个比方,对于一个电商平台的公司,Bicycle能够通过过去的销售数据来去分析以及预测未来的可能销售情况,并通过这样的销售数据来去进行收入管理。他家的员工透露,他们的引擎是自己开发的,并使用了一些机器学习的方法来去对销售数据进行分析。随着实时分析的底层系统逐步完善,我感觉像这样的SaaS创业公司会越来越多。Clear Street官网:https://clearstreet.io/创立年份:2018年关键词:FinTech,SaaS,证券交易融资轮次:B轮最近一轮融资年份:2022年Clear Street是一家总部位于纽约的金融科技平台服务商,提供了一个云上的证券交易服务。传统的证券经纪商如银行等基础设施落后,信息不透明,效率低。Clear Street看到这一机会,想依靠云计算来去颠覆这一领域。如果说Robinhood是给散户打造的交易平台,那么在我看来Clear Street就是给专业机构打造的Robinhood。通过Clear Street,用户不仅可以进行证券交易,还能够通过简单的接口来对数据进行实时分析。在2021年,其云平台上单交易日平均处理交易数额就已达到30亿美元。Cube官网:https://cube.dev/创立年份:2019年关键词:Headless BI,云平台融资轮次:B轮最近一轮融资年份:2022年初看到Cube的展台,我以为他们是一家做BI可视化的公司,而实际并不是。他家做的东西是介于数据存储系统(如数据库、数据仓库等)与可视化BI工具中间的一层。它解决了几个问题:1)统一口径。用户从不同的数据源查询数据时数据的类型、单位、表示等可能都不统一,而Cube可以提供数据模型来解决这一问题;2)访问权限。管理员可以通过Cube给不同用户设定不同权限从而为不同用户展示不同报表;3)缓存。每次从BI工具到底层数据存储系统拿数据总是会带来不小的访问开销。Cube提供了一层缓存来解决该问题。4)不同的API。总体来讲,我觉得Cube是个十分薄十分好用的工具,不少公司应该都会喜欢。Immerok官网:https://www.immerok.io/创立年份:2022年关键词:Apache Flink,云服务融资轮次:种子轮最近一轮融资年份:2022年Immerok可能是Current大会赞助商中最年轻的一家公司了。不过他们做的事情可能并不会让做实时分析的同学陌生:在云端商业化Flink系统。说到Flink相关的公司,大家可能会想到在2019年被阿里巴巴全资收购的Ververica。Immerok与Ververica的关系非同一般:Immerok的几乎整个创始团队成员均来自于Ververica。Immerok从今年上半年成立以来,已经完成了一轮1700万欧元的种子轮融资。与提供私有化部署的Ververica不同,Immerok将整个重心都投入在了云服务上。相信这也是大势所趋了。InfluxData官网:https://www.influxdata.com/创立年份:2012年关键词:时序数据库融资轮次:D轮最近一轮融资年份:2019年InfluxData已经名声很大了,其实不用过多的介绍。他家的主要产品InfluxDB是一款业界主流的时序数据库。作为一家商业化开源软件公司,InfluxData把自己最核心的代码使用最宽松的MIT license进行开源。不过有意思的是,他家开源的仅仅是单机版本,而分布式版本还是完全闭源收费的。InfluxData最近也在用Rust语言重写自己的系统内核。看来Rust重写系统在业界还是挺普遍的。Macrometa官网:https://www.macrometa.com/创立年份:2017年关键词:实时API融资轮次:A轮最近一轮融资年份:2021年Macrometa提供实时数据API的服务。什么叫实时数据服务呢,Macrometa本质上可以理解为一个全球化的实时多模数据库。用户通过API或接入实时的event source写入数据库,并通过CRDT实现全球化的实时同步。用户就像使用一个跨机房的分布式数据库一样实现数据读写和cache服务,可以直接查询实时写入的数据。相比于其他实时数据服务,Macrometa有两个不一样的侧重点。一是他家把底层技术做成了服务封装起来,上层提供了十分丰富的数据模型和API,例如key-value store,文档数据库,图数据库,pub/sub等 ;二是他家很侧重于边缘计算。这样,对于IoT等对边缘计算有大量需求的用户,就只需要通过访问他们的API就能够很简单的获取实时的数据了。Oxylabs官网:https://oxylabs.io/创立年份:2015年关键词:网关,SERP scraper,SEO融资轮次:未知最近一轮融资年份:未知打开Oxylabs的官网,你会发现他们的核心业务是网络代理,比如IP地址代理和数据中心的网关建设。这看起来和实时系统没啥关系,但仔细看就会发现,oxylabs另一个大支柱业务是实时的SERP scraping。我此前对这个词比较陌生,并且调研了一下发现国内也没有比较正式的翻译,因此保留这个词并简单介绍一下。SERP是指Search Engine Result Page,而SERP scraper是指通过爬虫对一些关键词在搜索引擎中的查询结果,包括广告,相关查询,网页排序等相关,进行自动化的跟踪,并以格式化的形式返回给用户。SERP scraping主要用在市场部门对自己产品和竞对的SEO进行分析,这里面的核心的市场价值在于提供降低技术门槛的SaaS服务。Oxylab则是进一步提供了自动化的实时SERP Scraping的业务。这背后需要一套成熟的实时数据技术栈,从数据的爬取到实时分析再到发送给用户。Oxylabs已经成立7年,没有公开的融资纪录,公司却从立陶宛一路开到了全球。这也说明实时数据的应用是真的具有优秀造血能力的市场。Quix官网:https://quix.io/创立年份:2020年关键词:Python,数据科学,数据工程融资轮次:种子轮最近一轮融资年份:2021年之前的流处理平台面向底层程序员设计,只提供Java等语言接口。但是,对于数据科学家来说,主流的编程语言其实是Python。这里就产生了一个机会:如何让数据科学家等更加熟悉Python语言的用户享受到流处理的便利。Quix就是一个主打面向Python等其他高层语言的流处理平台。Quix由来自于英国迈凯轮(你没看错,卖豪车那个)的几位数据科学家创立,从创始之初就是主打面向数据科学家和数据工程师的流处理平台。它依赖 kafka 等消息队列完成数据输入和输出,但提供了云上托管的流数据处理服务。除了Python,我也从其官网上看到他们已经加上了对C#的支持。Redpanda官网:https://redpanda.com/创立年份:2019年关键词:消息队列,Apache Kafka兼容融资轮次:B轮最近一轮融资年份:2022年Redpanda直接与Apache Kafka竞争。如果说Red Hat是Linux的商业发行版的话,那么Redpanda就是Kafka的商业发行版。Redpanda的接口与Kafka完全兼容,相比于Kafka,Redpanda主打性价比:它号称性能是Kafka的十倍以上,而硬件效率提高6倍以上。作为一个C++项目,Redpanda还有一大卖点,就是彻底抛弃JVM的依赖。当安装Redpanda的时候,用户不再需要安装如Zookeeper等JVM生态的组件。这个理念我是高度认同的。大数据时代以Hadoop为首的平台安装维护的复杂度实在太高,会劝退一批工程师。如今,很显然极简的部署与运维环境将是相比于现有大数据时代技术的一个很强竞争点。Rockset官网:https://rockset.com/创立年份:2016年关键词:实时分析,数据库融资轮次:B轮最近一轮融资年份:2020年Rockset是一个实时分析数据库。在这个领域中,已经有不少开源产品,不过Rockset是为数不多的闭源产品。在早期,其实Rockset并不是做实时分析(OLAP)数据库的。Rockset初创团队就是在Facebook里面做RocksDB与HDFS的那波人。而他们的产品也的确是基于RocksDB开发的。我从他们只有10人左右的时候便关注着他们的产品。我还记得他们最最早期的时候做的其实是SQL on raw data,也就是能够在原始数据上(比如Json等半结构化数据)做查询。之后逐步变成了所谓indexing database(索引数据库),直到近两年才全面将产品定位成实时分析数据库。他们最吸引我的点还是从2016年那个时候就能预测到未来的数据将放在云上,越来越多的原始数据将会被保存下来。从现在这个时间点回头再看他们做的产品,可以说是时代的领跑者了。StarTree官网:https://www.startree.ai/创立年份:2018年关键词:Apache Pinot,实时分析,数据库融资轮次:B轮最近一轮融资年份:2022年StarTree是实时分析数据库领域的新秀。尽管成立时间不长,但是已经在硅谷获得了不错的关注度。除了产品以外,相信他们的VP of DevRel Tim Berglund也吸引了不少目光。StarTree的核心业务是商业化Apache Pinot,一个开源实时分析数据库。相比于其他实时分析数据库,StarTree更加侧重于高并发查询,这也是在很多用户交互场景(如LinkedIn上“Who's viewed your profile”应用)所需要的。除了在云上卖实时分析数据库外,StarTree有一个SaaS服务,叫ThirdEye,专门使用Pinot做数据的异常检测。这也其实反应出了一个趋势,即现在的infra企业正在逐步往SaaS层发展。Striim官网:https://www.striim.com/创立年份:2012年关键词:数据集成,流处理融资轮次:C轮最近一轮融资年份:2021年Striim是一家专注于做数据集成的公司。他家是由Oracle GoldenGate原始团队创立的。GoldenGate于2009年被Oracle收购,其团队专注于面向Oracle数据库的数据导入导出业务。而Striim现在的核心业务与GoldenGate所做的属于同类:数据库到数据库的数据集成方案。由于成立时间比较早,早期Striim还是做私有化部署,不过最近几年随着云的兴起,他们也将业务扩展到云服务。公司给人印象深刻的地方在于产品对于数据生态的友好程度,Striim Cloud支持基本上所有的主流的数据库、数据服务以及云平台。公司甚至开发了数十种接插件并发布在云厂商的应用市场里,极大降低了用户接入的复杂度。Swim官网:https://www.swim.inc/创立年份:2015年关键词:实时数据分析, 实时应用融资轮次:B轮最近一轮融资年份:2019年Swim这家公司的产品主要是帮助开发者构建和管理基于流数据的实时应用。他们的开源产品Swim OS提供了一个构建实时应用的框架,而商业产品Swim Continuum则可以实现流数据源管理,基于流数据的实时分析和展示,以及对于应用运行状态的监控。看起来像是将应用监控和业务分析结合到一个平台上了。这家公司提供的并非单项服务(中间件),而是面向商业用户的一套实时数据处理与分析方案。Tinybird官网:https://www.tinybird.co/创立年份:2019年关键词:实时数据分析,实时API融资轮次:A轮最近一轮融资年份:2022年Tinybird是一家实时数据分析公司。数据源有各种各样,但为了构建应用,应用端使用数据还是需要通过API来访问。Tinybird构建的就是从数据源到API中间的桥梁。他们的产品支持多种类型的数据源,开发者可以用SQL对这些数据进行转化和处理,然后通过API接口将用到的查询暴露出去。下游的应用只需要调用这些API接口就可以即时访问最新数据,不必再搭建复杂的数据管道。从技术角度来讲,Tinybird使用的是目前流行的Clickhouse做数据处理。Airbyte官网:https://airbyte.com/创立年份:2020年关键词:数据集成, ELT/ETL融资轮次:B轮最近一轮融资年份:2021年Airbyte是一家总部位于硅谷、发展势头十分迅猛的数据集成公司。他们的产品可以看作是开源版FiveTran的替代品。具体来说,Airbyte是一个万用的数据连接器,支持多种数据源(应用、API、消息流及数据库等)与目标数据系统(数据库、数仓及数据湖等)的连接。不同于许多底层流计算系统,需要接入清洗过的结构化的数据,或者由工程师在计算引擎里编写复杂的数据清洗逻辑,Airbyte是直接应用到应用,端到端的数据集成。通过SaaS式的简单配置,就可以实现一百多个不同系统之间的数据交换。得益于开源社区的积极贡献,Airbyte的数据连接器数量目前已超过150,官方还提供了开发包,开发者无需花费太多时间(官方宣称30分钟内)即可完成定制连接器的开发。这家公司产品的易用性得到很多好评,文档和支持资源也比较丰富。CelerData官网:https://celerdata.com/index创立年份:2020年关键词:实时数据分析,数据库融资轮次:未知最近一轮融资年份:未知CelerData是国内实时分析数据库领域创业公司StarRocks在美国成立的新公司。StarRocks是从开源项目Apache Doris迭代出来的一个商业化产品。与Rockset、StarTree、Imply等类似,StarRocks可以高效的处理用户的高并发分析请求。其接口兼容MySQL,从性能角度来讲也声称能够远超同类别产品。DeltaStream官网:https://www.deltastream.io/创立年份:2020年关键词:流处理,数据库融资轮次:种子轮最近一轮融资年份:2022年DeltaStream是2020年年底成立的做流数据库的公司,其创始人Hojjat Jafarpour也是Confluent公司KSQL项目的创始人。DeltaStream提供了一个无服务的流式数据库来实时的管理和处理数据流。DeltaStream自身不包含存储模块,而是将流存储平台如Kafka和AWS Kinesis或静态数据源如AWS S3视为存储层,允许用户从一个或多个数据源读取数据、执行计算并同时跨不同存储源写入结果。DeltaStream内部使用Apache Flink SQL作为引擎。Factorhouse官网:https://factorhouse.io创立年份:2020年关键词:Apache Kafka, 云服务融资轮次:无最近一轮融资年份:无Factor House(2022年9月更名之前叫做http://Operatr.IO)是一支位于澳大利亚的三人(!)创业团队。其CEO和COO分别是Derek Troy-West和Kylie Troy-West夫妻俩。其主打产品Kpow是一个专为Apache Kafka设计的web端可视化工具,能帮助企业用户更好地管理和监控Kafka资源。Kpow让用户能够可视化、检索、导出实时数据,从而大大提高了Kafka的可观察性和易维护性,无需使用复杂的命令行就可轻松管理所有Kafka cluster和topic。跟其团队攀谈一番后得知他们是从疫情期间开始居家开发该平台,至今没有拿过任何融资,不过已经是有客户的状态。LakeFS官网:https://lakefs.io创立年份:2020年关键词:类git, 多版本,数据湖融资轮次:A轮最近一轮融资年份:2021年lakeFS由Treeverse公司开发。它能够让用户像管理代码一样管理data lake中的数据 — branch, commit, merge, revert 样样不在话下。数据湖,尤其是超大型数据湖管理起来非常棘手,它所依赖的对象存储系统缺乏原子性、回滚、复现等特性,导致数据的质量和可恢复性降低。以往我们使用data lake时经常给生产环境创建一个副本,这样就能先在副本中测试数据改动,没问题了再对生产环境作改动。但问题是这个方法非常耗时耗财,也很难多人协同工作。lakeFS把对象存储转变成类Git式的repo,无需复制任何数据、支持多人协同,仅注入安全的数据,减少错误的产生,即便产生了错误也可直接在生产环境中对bad data进行原子回滚。Memgraph官网:https://memgraph.com创立年份:2016年关键词:图数据库,实时分析融资轮次:种子轮最近一轮融资年份:2021年Memgraph是一个低延迟、高性能的in-memory图数据库,能够很好地处理事务型和分析型图任务。Memgraph能够分析来自多个数据源的数据,发掘这些数据之间的潜在联系,让用户能够基于此应用图算法和分析,进而构建自己的实时应用。CEO Dominik Tomicevic提到Memgraph最典型的用户来自化工业、制造业、金融业,他们都有个共同点:需要从分散的数据中获取实时分析。Meroxa官网:https://meroxa.com创立年份:2019年关键词:代码优先,实时分析融资轮次:A轮最近一轮融资年份:2021年有了Meroxa,用户可以在几天内搭建、测试和部署实时数据应用。Meroxa是个以开发者为中心、代码优先的工具,能让软件工程师节省更多时间来构建数据产品,而不是把时间浪费在维护脆弱的数据系统上,这些数据系统通常不是为开发人员设计的。Meroxa的目标是帮助开发人员专注于用实时数据构建应用,而不是将重复的运维功能自动化。他们的愿景是将其打造成行业领先的“数据应用平台即服务(DAPaaS)”提供商。值得一提的是,Meroxa是个非常多元化、有爱、开放的团队,正如他们官网所写道“我们能帮助每个人成为数据工程师,并成长为一个‘数据驱动’的人——因为有了好的数据,我们都可以成为变革的力量。”FeatureBase官网:https://www.featurebase.com/创立年份:2017年关键词:实时分析,bitmap融资轮次:未知最近一轮融资年份:未知FeatureBase是总部位于得州奥斯汀,由Molecula公司和Pilosa项目近期合并改名而来。其产品是一个使用bitmap进行数据索引的OLAP数据库。具体来说,FeatureBase会将传统OLAP中列存的数据转化为基于bitmap的Feature,从而实现更好的读写性能和资源效率。同时FeatureBase将流数据作为重要关注点,强调bitmap带来的流数据更新的实时性提升。FeatureBase能比较好地为结构化数据建立索引,但是对非结构化数据无能为力。其产品具有开源和云服务两种服务模式,支持SQL和其自定义的PQL两种数据访问接口。Nussknacker官网:https://nussknacker.io/创立年份:2016年关键词:实时分析, 可视化融资轮次:未知最近一轮融资年份:未知Nussknacker是一个可视化实时分析工具。它的面向用户是管理者、分析师等之前习惯使用类似于Excel等交互工具的人。通过web端的可视化操作而不需要写代码,用户就可以构建进行数据流上的分析处理逻辑。对于简单的分析查询,Nussknacker用kafka作为主要的输入流和输出流接口,开发了自己的轻量引擎来进行简单的流处理操作,而高级复杂聚合操作会在Flink上进行处理。Nussknacker降低了构建实时数据处理分析的门槛,不需要写代码或专业开发人员的帮助,业务团队就可以部署和测试业务处理逻辑。Timeplus官网:https://www.timeplus.com/创立年份:2021年关键词:流处理,数据库融资轮次:种子轮最近一轮融资年份:2022年Timeplus是由一群原Splunk工程团队资深专家创建的公司。其核心产品为云上流式数据库。目前用户已经可以在其官网上注册申请beta版本的访问。我看过他们的云产品,其交互式界面给人体验很不错。目前为止其团队所开发的产品仍完全闭源。使用这种方法可以让团队更加专注在商业化上面。总结感谢各位看到这里。本文已经全面介绍了实时数据系统领域的创业发展方向。相信这也是数据基础设施领域近些年来最激动人心的方向了。如果你对这个方向感兴趣,或是对RisingWave开源、云产品感兴趣,都可以与我们联系。相信实时数据系统领域在不远的将来便会迎来跳跃式发展。彩(广)蛋(告)其实我这次去Current大会,除了与各位同行聊天、宣传RisingWave之外,还有一个活就是给了一个技术演讲。演讲的题目是“Rethinking State Management in Cloud-Native Streaming Systems”。这一演讲属于纯技术干货分享,介绍了RisingWave系统内部的一些实现。如果有兴趣的朋友可以看我的演讲PPT:同时,在Current大会网站上也可以看到完整的视频:RisingWave源代码可以在此访问:我在Current大会上的演讲欢迎各位交流指点!

我要回帖

更多关于 最好用的电商erp 的文章

 

随机推荐