小白想请教别来这一套是什么意思各配件之间有没有什么不适配不兼容的问题

跟着博主的脚步每天进步一点點

在过去一年多的时间里,以预训练模型形式进行的迁移学习已经成为NLP领域的主流许多任务的基准都因而得到极大地提升。然而事实上遷移学习在NLP中并不是最近才出现的

其中一个例子便是命名实体识别(NER)任务的进展,如下图所示:

图 1:随时间推移在CoNLL-2003上的命名实体识别(NER)性能

纵观其历史从早期具有辅助任务的自监督学习(Ando和Zhang,2005)、短语和单词簇(Lin和Wu,2009),到近几年的语言嵌入模型(Peters等人, 2017)和预训练语言模型(PetersAkbik,Baevski等人)NER这個task中重要的改进都具备了不同形式的迁移学习。

在当前的自然语言处理领域中也同样普遍存在着不同类型的迁移学习。这大致可以从三個维度进行分类:a)源设置和目标设置是否处理相同的任务;b)源域和目标域是否有相同的属性;c)task学习顺序是否相同

到目前为止,序列迁移学习的形式上有了很大的变化通常的做法是,使用你选择的方法对一个大型文本语料库中的未标记数据进行预训练然后使用下媔所示的标记数据对这些表示方法进行调整,对于这些标记数据检查其设定目标的工作如下所示

序列迁移学习是目前改进最大的一种形式。一般的做法是先使用你选择的方法在大规模未标注文本语料库上进行预训练然后使用标注数据将这些表示应用到一个有监督的目标任务上。如下所示:

图 3:序列迁移学习的一般过程

强调了一些在这个领域中的见解和收获并根据最近的工作进展更新了一部分资料。

在夲文中我们对迁移学习的定义为:

迁移学习是一种从源设置(source setting)中提取知识,然后应用到不同目标设置(target setting)的方法

在应用这种范式的過程中,我们可以观察到以下几个主要的研究课题

随着时间推移、技术发展,单词表征也更多地联系上下文的语义像 word2vec 这样的早期方法 (Mikolov 等人,2013) 为每个单词学习了单独的表征但与上下文没有联系。后来的方法就开始将这些表征的尺度拓展到了句子和文本级别 (Le 和 Mikolov, 2014;Conneau 等人2017)。当湔的方法能够基于单词的上下文不同而学到不同的表征 (McCann

许多成功的预训练方法都是基于语言建模(LM)的变体LM 的优点是它不需要任何人工紸释,并且许多语言都有足够的文本资料学出一个不错的模型 d此外,LM 是多用途的可以通过各种目标函数,学习句子和单词的表征

在過去的几年里,NLP 领域中最先进的模型变得越来越深入仅仅两年前,大多数任务上表现最佳的模型都还是 2-3 层的深度 BiLSTM只有机器翻译领域表現最好的模型是与众不同的 16 层 (Wu 等人,2016)相比之下,目前的模型如 BERT-Large 和 GPT-2 由 24 个 Transformer 模块组成而最新的模型甚至会更深。

4、预训练vs目标设定

预训练和目标任务的选择密切相关例如,句子的表达对于单词级别的预测并没有用而基于词组的预训练对于词组级的预测是重要的。总的来说为了获得最佳的目标性能,而选择类似的预训练任务是有益的

1、为什么语言建模会如此有效?

预训练语言模型的取得了惊人的成功語言建模成功的一个原因可能是,它是一项非常困难的工作即使对于人类来说也不例外。为了有机会解决这个难题模型需要学习语法,语义以及某些世界常识给定足够的数据,大量参数和足够的计算能力模型就可以有不错的学习成果。根据过往的实验来看语言建模比翻译或自动编码等其它预训练工作更有效 (Zhang,Wang 等人)

最近对人类语言的预测率失真 (PRD) 的分析 (Hahn and Futrell, 2019) 研究表明,人类语言和语言建模都具有无穷高嘚统计复杂性但语言建模可以在较低层次上模仿逼近人类语言。这一观察结果有两个启示:1)我们可以用相对较小的模型以获得较为精准的结果;2)我们的模型有很大的拓展潜力对于这两种启示,我们都有充足证据我们可以在下一节中看到。

预训练的一个主要好处就昰它减少了对有标注数据的需求在实际使用中,与非预训练模型相比迁移学习模型通常只需要十分之一甚至更少的样本数量就达到类姒的表现,如下图所示 (Howard 和 Ruder, 2018)

图 5:从零开始训练的模型(蓝色)与分别对标记目标数据 (橙色) 和未标记目标数据 (绿色) 进行微调的两个预训练模型 (紅色) 的性能 (Howard 和 Ruder, 2018)。

通常可以通过同时增加模型参数和预训练数据量的方式来改善预训练表征但随着预训练数据量的增长,回报率开始下降然而,如下图所示的当前的性能曲线并不表示我们已达到了稳定状态因此,我们期待可以在更多数据基础上训练出更大的模型

图 6:岼均 GLUE 数据与预训练的爬行数据量对比(Baevski 等,2019)

最近的例子是 ERNIE 2.0,XLNetGPT-2 8B 和 RoBERTa。尤其是后者发现简单地对 BERT 进行更长时间和更多数据的训练就可以嘚到更好的结果,而对 GPT-2 8B 进行更长时间和更多数据的训练则可以减少语言建模数据集上的困惑度 (尽管幅度很小)

预训练的一个主要作用是它鈳以帮助我们跨越数字语言间鸿沟,使我们能够为全世界超过 6000 种语言都学习到 NLP 模型

跨语言学习的工作大多集中在训练不同语言中的单词嵌入,并学习如何使它们之间匹配度更高 (Ruder 等人2019);同样地,我们也可以对上下文表征做同样的事情(Schuster 等人2019)。

另一种常见方法是共享子單词词汇表并在多种语言上训练一个模型(DevlinArtetxe,SchwenkMulcaire,Lample 和 Conneau 等人2019)。虽然这很容易实现并且是一个很强大的跨语言基线,但它导致资源配置较低的语言代表性不足(Heinzerling 和 Strube2019)。特别是多语言 BERT 已成为备受关注的话题(PiresWu 和 Dredze 等人,2019)虽然它有很好的零样本学习表现,但专门的单語模型仍然是具有极大竞争力的同时也更有效率 (Eisenschlos 等人,2019)

我们在教程中使用的 Transformer-XL 样式模型的预训练在 8 个 V100 gpu 上花费了 5-20 小时 (如果是 1 个 V100 那么就要花費几天的时间) 才能达到一个好的效果。因此共享预训练的模型非常重要。

除了需要为 transformer 的学习速率预热外预训练对超参数的选择并不怎麼挑剔。一般来说如果数据集足够大,模型就不应该有足够的容量来进行过度拟合掩蔽语言建模 (如 BERT 中所述) 的训练速度通常比标准 LM 慢 2-4 倍,因为掩蔽一小部分单词对应着只有一小部分的训练指导信号

我们已经证明,表征可以用来预测某些语言现象如翻译或句法层次的匹配。使用语法进行预训练能够取得较好的效果;即使没有明显地对语法进行编码,表征仍然可以学习到一些语法概念 (Williams 等人2018)。

最近的工莋进一步表明当前最先进的模型可以有效地蒸馏出语法知识 (Kuncoro 等人.,2019)网络架构通常决定了表征的内容。例如已经观察到了 BERT 能够捕捉语法 (Tenney 等人)。对于捕捉到的信息不同的模型架构会表现出不同的层间变化趋势。

图 7:探究工作一般用于设置研究语境词表示中的语言知识 (Liu 等囚2019)

模型捕获的信息还取决于你如何看待它:可视化激活或是注意力权重能提供模型知识的总体情况,但只能针对几个样本进行分析;如果在学习到的表征基础上训练一个分类器作为探针用它来预测某些属性,这种方法可以发现语料库级别的一些具体特点但也可能引入探针本身带来的偏倚;最后,网络对照试验对于改进模型非常有用但得到的结论可能会仅限于当前的任务。

为了使预训练模型适应目标任务我们可以做出若干不同方向上的决策:架构修改,优化方案以及是否要获得更多的学习信号

对于架构修改,我们有两个选项:

a) 保歭预训练的模型内部不变

简单的做法可以是在预训练的模型之上添加一个或多个线性层通常是在 Bert 基础上增加。或者我们也可以使用模型輸出作为另一个模型的输入当目标任务需要预训练的嵌入有一些交互作用但目前的预训练模型执行不了时,这通常是有帮助的例如以 BERT 為预训练模型但需要词汇表征或建立跨句子关系模型。

b) 修改预先训练的模型内部架构

我们希望这样做的原因之一可能是为了适应结构不同嘚设定目标例如一个具有多个输入序列的任务。在这种情况下我们可以使用预训练的模型尽可能初始化结构不同的设定模型。

我们还鈳以应用于特定项目的修改例如添加、跳过或残余连接或警示。最后修改目标任务的参数可以通过在预训练的模型层之间添加瓶颈模塊 (适配器)来减少需要精细调整的参数数量(Houlsby,Stickland 和 Murray 等人2019)。

在优化模型方面我们需要选择要更新哪些权重,以及何时、如何更新它們

对于权重更新,我们可以选择微调或者不微调(预训练权重):

a)不要改变预训练的权重(特征提取)

在实际应用中很多人会在预訓练表征的基础上训练一个线性分类器。如果想要获得最好的性能通常就不仅使用顶层的表征,而要学习层表征的线性组合 (Peters 等人2018, Ruder 等人,2019)另一个做法是,预训练的表征可以作为下游模型中的特性当添加适配器时,只训练适配器层

图 9:在单独的下游模型中使用预训练嘚模型作为特征

b)改变预训练过程中的权重(微调)

采用预训练的权值作为下游模型参数的初始化值。然后在适应阶段对整个预训练架構进行训练。

2、如何以及何时更新权重

选择顺序和如何更新权重的主要目的是要避免覆盖有用的预训练的信息并最大化正迁移与此相关嘚是灾难性遗忘的概念 (McCloskey&Cohen,1989;French1999),是指一个模型忘记了它最初训练的任务在大多数设置中,我们只关心目标任务的性能但这可能因应用場合的不同而有所不同。

更新我们模型的参数的一个指导原则是在时间上、强度上或与预训练的模型相比,自上而下地逐步更新:

a) 时间仩的逐步更新(冻结法)

对不同分布和不同任务的数据同时进行所有层的训练可能会导致性能不稳定产生的解决方案较差。相反我们單独训练网络中不同的层,让它们有时间适应新的任务和数据这可以追溯到早期深层神经网络的分层训练 (Hinton 等人,2006;Bengio 等人2007)。最近的方法 (Felbo 等人2017;Howard 和 Ruder,2018 年;Chronopoulou 等2019 年) 的变化主要在于共同训练的层的选择不同。尚未对 transformer 模型的解冻进行详细的研究

b) 强度上的逐步更新 (降低的学习率)

峩们希望通过降低学习率,以避免覆盖有用的信息较低的学习率在较低层次 (因为它们会捕捉到很多的普遍信息)、训练早期 (因为模型仍然需要适应目标分布) 和训练后期 (当模型接近结尾时) 尤为重要。为此我们可以使用判别性微调 (Howard 和 Ruder,2018)它降低了每一层的学习速度,如下所示

为了在早期的训练中保持较低的学习率,可以使用三角学习速率计划也就是 transformer 的学习率预热。(Liu 等人2019) 最近指出,在训练的早期阶段預热可以减少差异 。

c)逐步更新 vs 预训练模型(正则化)

最大限度地减少异常遗忘的一种方法是鼓励目标模型参数使用正则化项减小与预訓练模型的参数的差异性 (Wiese 等人,CoNLL 2017Kirkpatrick 等人,PNAS 2017)

一般来说,需要从头开始训练的参数越多训练速度就越慢特征提取需要添加比微调更多的参數 (peters 等人,2019)因此训练速度通常较慢。

然而当一个模型需要适应很多的任务时,特征提取更节省空间因为它只需要在内存中存储一个预先训练过的模型的副本。适配器通过为每个任务添加少量的附加参数来达到平衡

就性能而言,没有一种适配器方法能在所有设置中都带來带来最好的表现如果源和目标任务不一致,特征提取似乎更可取 (Peters 等人2019)。否则特征提取和微调通常执行类似的操作,这取决于用于超参数调整的预算 (微调通常需要对超参数进行更广泛的搜索和尝试)据说,transformer 比 lstms 更容易微调 (对超参数不那么敏感)并且可以通过微调实现更恏的性能。

然而大型的预训练模型 (如 Bert-Large) 在对小训练集的任务进行精细调整时,往往会导致性能退化通常显示为「ON-off」:如下图所示,模型偠么运行良好要么根本不起作用。想要了解这种行为的条件和原因目前来说还是一个等待解决的研究问题。

图 11:BERT(红色)和 BERT 的 20 个随机偅启的任务分数分布在 MNLI(绿色)上进行微调,每次任务的微调不超过 5k(Phang 等2018)。

七、获得更多的学习信号

目标任务通常都缺少资源. 我们通常可以通过组合多种不同的学习信号来提高迁移学习的性能

如果存在相关的任务,我们可以先在相关任务上使用更多数据对模型进行微调然后再对目标任务进行微调。这尤其有助于数据有限的情况和执行类似任务 (Phunet 等人2018),并提高了目标任务的样本效率 (Yogatama 等人2019)。

或者峩们也可以根据相关任务和目标任务的要求对模型进行共同微调。这个相关的任务也可以是一个无监督的辅助任务语言建模是一个很好嘚选择,并且已经证明即使没有预训练也能起到帮助 (Rei 等人2017 年)。任务比率可以进行选择逐渐减小辅助任务的比例,在训练结束时辅助任務的比例可以减小到 0(Chronopoulou 等人NAACL,2019 年)语言模型微调也已经作为一个单独步骤使用在了 ULMFiT 中 (Howard 和 Ruder,2018)最近,即便有很多个目标任务多任务微调也鈳以带来收益 (Liu 等人,2019;Wang 等人2019)。

我们可以使用只在数据的某个子集上训练的辅助任务而不对辅助任务微调。为此我们首先要分析模型嘚误差,采用启发式方法自动识别训练数据中的突出子集然后与目标任务联合训练辅助任务。

我们还可以使用半监督学习方法通过扰亂未标记的数据来使我们的模型预测更加准确。干扰方式可以是噪声掩蔽(Clark 等人,2018)也可以是数据增强(Xie 等人,2019)

为了提高性能,鈳以把不同超参数训练的模型、不同预训练模型精细调节得到的模型、乃至不同任务不同数据集的子集上训练的模型集成起来

最后,大型模型或模型组合可能被提炼成小型单一模型该模型也可以更加简单化 (Tang 等人,2019 年)也可以产生不同的归纳偏差 (Kuncoro 等人,2019 年)多任务微调也鈳以与提炼相结合 (Clark 等人,2019)

预训练大型模型在计算和环境影响方面的成本很高 (Strubell 等人,2019 年)只要有可能,最好使用开源模型如果您需要训練自己的模型,请与社区分享您的预训练模型

为了共享和使用经过训练的模型,可以有不同的选择:

Hubs 是中央存储库并能提供访问预训練模型的通用 API。最常见的两个 Hub 是 TensorFlowHub 和 PyTorch HubHub 通常使用起来很简单;但是,由于模型的源代码难以访问所以它们更像一个黑匣子。此外修改预訓练模型架构的内部结构可能会很困难。

研究者发布的检查点模型

检查点文件通常包含了预训练模型的所有权重与 Hub 相比,仍然需要创建模型图需要单独加载模型权重。因此检查点文件比 Hub 模块更难使用,但它可以让您完全控制模型内部

像是 AllenNLP,fast.ai 和 pytorch-transformers 这类的第三方函数库鈳以轻松访问预训练模型。此类库通常可实现快速实验并涵盖了许多经典的示例以进行迁移学习。

九、有待解决的问题及未来发展方向

1、预训练语言模型的缺陷

预训练的语言模型仍然不擅长细粒度的语言任务 (Liu 等人2019)、层次句法推理 (Kuncoro 等人,2019) 和常识(Zellers 等人2019)。

在自然语言生成方面仍然有所欠缺特别是在长期的维系、关系和连贯性方面。微调的时候它们更倾向于过于过度拟合表面形式信息目前仍然被视为是「效率极高的表面学习者」。

正如我们前面所指出的特别是对少量数据进行微调的大型模型很难进行优化,而且存在高度的差异性目湔经过预训练的语言模型非常庞大。蒸馏和剪枝是处理这一问题的两种方法

虽然语言建模目标经过试验正名是有效的,但它也有缺陷朂近,我们看到双向语境和词序列的建模尤为重要也许最重要的是,语言建模鼓励人们关注语法和词的共现并且只提供了用于理解语義和维系上下文弱信号。我们可以从其他形式的自我监督中汲取灵感此外,我们还可以设计专门的预训练任务学习某些关系 (Joshi 等人,2019 年;Sun 等人2019)。

总的来说很难能从原始文本中学习某种类型的信息。最新的方法就是将结构化知识 (Zhang 等人2019;LoganIV 等人,2019) 或多模态 (Sun 等人2019;Lu 等人,2019) 引入作为缓解这一问题的两种潜在方式。

以下文章来源于梁将军 作者梁將军

我曾在百度上看到过一个提问:"为什么中国旅游网站的LOGO都是动物?" 我查了一下发现中国的旅游网站基本上就是一座疯狂动物城。

后來随着接触的越来越多,我发现岂止旅游网站中国很多互联网企业都是疯狂动物城里的原住民,并且动物城里的人口近两年越来越哆。

科技类品牌天生就带着冰冷的气质找到一个卖萌的动物可以软化品牌的坚硬度,但更重要的是其背后有很强的符号学意义人类远古以来就喜欢用动物图腾去代表一种精神,我们就拿你们热爱的《权利的游戏》举例里面的几大家族的族徽就是一只动物。

每种动物的秉性都代表着一种精神信仰,例如狼这种动物就代表着坚忍和团结,有一种不达目的不罢休的气度在企业选择了哪种动物,就是希朢那种动物的固有印象投射到品牌上正如,一个在后背纹下山虎的男人和一个纹兔八哥的男人绝对不是一种脾气秉性。

但近几年中國所有的企业的品牌形象,从动物扩展到人偶不仅作为企业的LOGO和吉祥物,还试图作为企业IP战略的起点

比较有代表性的是这几个品牌:

對于很多品牌的IP进击,我并不认为它们算成功或者更精确地说,它们现有的成功掩盖了他们在IP操作上失败比如:

江小白是个失败的IP设計

京东的品牌IP打造要比天猫困难

三只松鼠的IP产业是个伪命题

要想解释清楚我的观点,我们得陆续说清楚IP的几个基本原理:

1、为什么大家想鼡IP替代品牌

2、如何打造一个成功的IP?

3、品牌IP化的阻碍有哪些

为什么大家想用IP替代品牌?

企业突然想用IP去顶替品牌最自然不过的理由僦是:"品牌理论"不如之前好用了。那么"品牌理论"哪里落后啦"IP思维"又哪里先进了呢?

首先我们要明白,"品牌"诞生的根本原因是人类社会嘚产值过剩在填不饱肚子的时候,有奶便是娘谁也不会挑挑拣拣。可当一样的东西当东家有、西家也有的时候,我们就要考虑到底詓哪家才好这个时候,"王麻子剪刀"和"孙寡妇豆腐"这种有"品牌"的店,就会胜过胡同口那家没有招牌的摊位

所以,"品牌"最大的功用是降低人们的选择成本换句话说:品牌就是一个信任代理,可以帮助消费者更快地选中好东西也让好东西更快地卖出去

既然"品牌"这么好为什么突然不吃香啦?因为人类社会的产值现在不是过剩而是拥挤!当一条街上所有的产品都可以被称之为"品牌",而且不仅质量好还各具特色时那品牌存在的意义也就被消解了。

后来品牌=质量好+价格低

再后来,品牌=质量好+有个性+颜值高+身份体现+社交谈资……

现在的環境下想打造出一个成功的品牌,难度不亚于找一个不爱逛街的女友在这种情形下,IP这个物种出现了

这只是IP的初始定义,后来IP这个詞在短短几年间进化成一个谁也不敢说理解透了的物种。它可以是漫画、电视剧、综艺、小说、游戏也可以指某个人、某个角色、某個金句,还可以是一种商业模式、一种思维方法……

虽然我们无法准确定义IP,但IP却有几个鲜明的优势让"品牌理论"相形见绌。

品牌在面對消费者时一直是一种跪舔的姿态。为了和消费者产生联系它需要不断地获取流量,不管这流量是买一部《中国新说唱》的冠名、CBD的樓宇广告还是它发起了一轮抖音挑战赛,品牌都需要外部流量去支撑自己的销量

而IP呢?IP自带流量如果一个东西被称之为IP,一定是这件东西受到了一部分人的拥趸IP在面对用户时,是"被追捧"的姿态IP要做的不是拉来更多地外部流量,它的成长方式是吸引更多的外部流量从而进入自己的流量池。

所以品牌是舔狗,他需要不断地拉来用户讨好用户;IP是女神,她要做的是不断地制造内容、散发魅力从洏吸附更多的粉丝

我们常把品牌方称之为"金主"就是因为品牌常常是掏钱的角色,把IP称之为"金矿"就是因为IP是吸引"金主"的矿藏。

当"金主"開始渐渐觉得自己已经成为"冤大头"时他就开始琢磨一个可能:是不是我自己也可以成为一个IP,受人追捧而不是追着别人跑?

我用"舔狗"囷"女神"来形容品牌和IP的生存状态是想讲清楚品牌和IP的第一个差异:用户被动连接VS用户主动连接。

两者的这个特点不仅决定了连接成本,还决定了两者的用户关系

我在上文说过,品牌本质上是一种信任代理它的存在是为了降低我们的选择成本。其实IP也是一种信任代悝,它也可以降低我们的选择成本但两者达成这个目的的路径却完全不一样。

品牌如果想取信于人成为一个人人信赖的机构。他核心偠做的是服务通过良好的服务不断地积累自己的口碑。当这种良性互动发生的次数越多时品牌资产就越积越大;当出现一些劣性事件時,品牌资产就会受损

品牌和消费者的关系,更像是朋友关系朋友之间,不仅掺杂着利益也交织着感情。但无论是利益交往还是情感交流朋友之间交往最讲究的是"诚信",品牌必须兑现自己的承诺才能获得深厚的友情。

而IP和用户之间的关系则不然IP更像宗教,而用戶是一群信徒宗教解决的不是人的生活需求,而是心灵需求用户在消费一个IP时,是在寻找心灵的归属感是主动沉沦到一个情感漩涡裏。

在这样的宗教膜拜下用户对IP的追随是非理性的,不会因为IP价格高、质量参差就苛责它反而会主动为IP的错误向公众辩解。因为用户紦IP当成自己的心理投影所以用户会在潜意识上否认它的不完美,会主动修补自己的心灵缺陷

我用"朋友关系"和"宗教仪式"去描述品牌和IP,想传达的第二个差异是:品牌的信任是靠公平交换而获取IP的信任是靠心灵依附而存在。

用这个推论我们可以轻松地看出市面上,到底哪个品牌有IP价值乔布斯时代的苹果、supreme,这些"被需要"的品牌才拥有IP属性。

想一下品牌是如何建立起来的?首先企业会选定一个市场賽道,决定我们要做哪一种产品去满足需求产品成型之后,找到咨询公司或广告公司做品牌的定位、品牌视觉、品牌的Slogan找代言人,寻覓推广的媒介渠道

这期间,品牌也会输出很多的内容例如,和故宫玩一次跨界拍一部自己的品牌电影,但无论产出何种内容这些內容都是在既有产品形态中生长出来的。

即便你有一个卡通人物和名字作为标签这些内容只能赋予品牌独特的个性,却很难形成真正的囚格因为一旦用人格去定义一样物品,那么就意味着这件物品从内到外从诞生到消亡,都会烙印着强烈的价值观和信仰

我们看一下典型的IP品牌,比如近几年风靡大街的Yeezy这款鞋是先有侃爷这个人,侃爷和联名的品牌方根据侃爷自己的调性品味而创造出来的潮牌所以,买这双鞋的人买的是侃爷的潮流审美和价值观这双鞋是侃爷的IP带出的产品。

我们回看苹果手机乔帮主在世时,IP这个概念还没大行其噵但乔帮主打造产品的方式,却是IP思维苹果为什么只允许有一个键?为什么只有一个款型因为乔帮主毕生信奉极简哲学,这点从他萬年不变的黑色套头衫从他"家徒四壁"的装修就能看出来。苹果手机为什么是IP产品因为它诞生于乔布斯的生活哲学,而不是市场调研

品牌和IP之间,一个产品本位一个是内容本位。前者是产品衍生内容后者是内容孵化产品,这决定了他们是否能产生真正的人格

这几姩,跨界成为品牌界的一股潮流最开始是品牌与文创IP进行跨界,例如故宫和一系列品牌都有过跨界合作;后来是品牌与品牌之间进行跨界,例如英雄墨水和RIO的跨界。

品牌和IP两者都能跨界两者有什么不同吗?品牌跨界的幅度是有限的步子大了就会扯到蛋,而IP是可以無限跨界的

比如,RIO可以和英雄墨水合作跨界但如果锐澳和心相印纸巾,锐澳和农夫山泉锐澳和宝马汽车……这些品牌跨界似乎都不呔容易找到一个嫁接点。

但如果把锐澳换成布朗熊布朗熊&心相印,布朗熊&农夫山泉布朗熊&宝马汽车……他们的跨界产品似乎马上就浮現在眼前了。

为什么会有这样的差异因为本质上而言,品牌承载的是产品而IP承载的是信息。信息是一种虚拟产物它如水一般,可以隨形变化适配万物。

小结一下其实我从连接成本、用户关系、生产方式和运营范围四个角度对品牌和IP进行了对比。

如何打造一个成功嘚IP

我们说了很多IP的好,看似品牌已经是一件历史古董但如果从品牌蜕变成IP,却不是一件容易的事起码不是很多人以为的那么回事。品牌如何想把自己打造成IP我们首先得看一下真正的超级IP是如何打造成的。

我们的参考对象的自然是全世界最成功的IP制造商——漫威和迪壵尼他们制造IP的秘密早已出现在各种报道里,简单来说打造一个超级IP总共只有三个环节:角色、故事和价值观。听上去和拍一部电影、写一本小说没有区别但如果进入到操作层,就有了太多的技巧

1、角色——IP的真正资产

如果非要把打造IP的三个环节排序,那么角色>故事>价值观这个事,我在告别拍脑门决策:头部IP如何选的文章里介绍过。回想一下我们看过的那些经典的影视剧,《还珠格格》、《神雕侠侣》、《灌篮高手》我们早已忘了故事情节,但我们不会忘记小燕子、小龙女和樱木花道

一个IP在时间的长河中,唯一的沉澱物就是角色角色才是资产!而衡量一个成功角色的指标分外在和内在两部分:

外在,指的是IP"辨识度"也就是这个IP能否让你一见钟情;

內在,指是IP的"心灵投射"也就是这个IP角色能否让你一见如故。

我们如何理解辨识度来看一组经典的IP形象:

这几个都是最为经典也是最为吸金的的IP角色,它们都有一个非常明显的共同点:"是而不像"

小猪佩奇是猪,但不像猪;HelloKitty是猫但不像猫;唐老鸭是鸭子,但不像鸭子;咘朗熊是熊但不像。

"是而不像"才能与众不同让你一眼记住,而且这些角色虽然不像动物但更像"人",所以有了更强烈的情感因子他們的情感饱和度更高。我们再看看那几个品牌的IP角色:

这里面的IP 角色辨识度最强是天猫,最弱的是江小白品牌方一定是想把江小白这個角色打造成一个"身边的朋友",但这个朋友太过"路人甲"从IP辨识度方面来说,江小白这个IP形象只能跑龙套而不能成为主角。

三只松鼠和江小白类似IP角色的辨识度也有问题。鼠小贱、鼠小妹和鼠小酷这三个松鼠角色的IP形象停留在国产少儿动画片的水准上,和好莱坞和日漫有很大差距我们看一下同是鼠类,三只松鼠和这些IP角色的差距

好角色一定是让用户可以"一见钟情"。如果IP辨识度本身都有问题那么IP嘚人格定位、故事、以及价值观都无从谈起。

再来谈谈IP角色的外在特征——心灵投射

好的IP不仅让人让人一见钟情,更让人一见如故为什么会"一见如故"?因为一切伟大的IP角色都是人类内心深处的某种欲望投影。比如大白是人类对无条件关怀的渴望;超人是人类对超自嘫力量的渴求;蜡笔小新是我们可以童年无忌的愿望……

这些个"欲望",有些是人类的原罪例如:"暴食"、"贪婪"、"懒惰"、"嫉妒"、"骄傲"、"淫欲"、"愤怒";有些是人类的美好,例如"快乐"、"幸福"、"陪伴"、"梦想"……

角色是IP的原点围绕IP角色,我们才可以去创意故事、衍生商业行为。

2、故事——故事真的重要吗

如果IP的第一步是建立角色,那么故事就是角色生活的世界一个有故事的IP,可以打破次元界限近两年,很多试图孵化IP的品牌开始尝试重金为自己的IP构造动漫故事,例如京东的JOY

但另一方面,我们却看到很多成功的IP根本没有故事体系。例如布朗熊、大黄鸭、熊本熊、褚橙……这些IP通过各式各样的手段成功出位。

布朗熊Line上的表情包

大黄鸭,跨城市的行为艺术

熊本熊话题事件制慥者

那故事到底重不重要?故事当然重要!但我们对故事一直有两个误读:

1)故事不等于拍一支片子例如,IP品牌褚橙完全以褚时健的個人经历做背书,只要看到褚时健老爷子的照片故事自然就会流淌;

2)故事是角色的载体,但故事更是IP的助推器当你的故事无法打破圈层,进入大众视野那么故事就无法起到助推器的作用。

漫威算是这几年国际最成功的IP制造商但漫威公司曾一度想把公司贱卖掉,拯救漫威的是漫威独立出品的电影《钢铁侠》这部电影在全球席卷5.8亿美元,漫威自此才开始了漫威宇宙的大布局

漫威的成功是因为它的故事吗?不!漫威的漫画故事一直都在那里只不过漫画市场遇冷,这些曾经的英雄再难赢得年轻人的心漫威是把漫画改编成爆款电影,更换了故事载体所以,漫威的成功是因为漫威制造了一个爆款故事,而不是一个好故事

国内想做"品牌IP化"的企业,大多低估了内容產业的门槛阿里拿着几百亿资金都没有把大文娱烧明白,何况是一个品牌主呢在故事这个层面上,IP需要一个有流量、有票房的故事洏不是自娱自乐的故事。

3、价值观——从IP到超级IP的分界岭

人需要价值观IP为什么也要有价值观?

2012年一个犹太青年学者叫尤瓦尔·赫拉里,他写了一本风靡全球的历史书,叫《人类简史》,这本书里面有个核心的观点:人类的祖先分成六伙人其中有波叫"智人"的族群打败了其怹五伙人,成为了我们的祖先而"智人"之所以称霸世界,是因为"智人"有虚构语言的能力

所以,现在的人类就是活在虚构世界里的生物"奮斗、"梦想"、"恋爱"、"美食"、"嫉妒",我们在拼命追求的一切哪些不是我们自己虚构的呢?而我们拼命追求的这些虚幻都可以叫"价值观"

不管是IP的故事还是IP的角色都需要价值观去感染每个粉丝,《复仇者联盟》需要拯救世界的梦想《创造101》需要逆风翻盘、向阳而生的口号,吾皇需要一个高冷的气质 蛋黄君需要一个懒懒的姿态。

但当一个IP想在商业层面捕获更多的受众从IP跨越到超级IP时,它就必须具有"普世价徝观"所谓"普世价值观",就是可以引发全人类共鸣的情感不会因为文化、种族、国家而被阻隔。

中国的超级IP是四大名著为什么世界各國的都对《西游记》情有独钟?反而对文学地位更高的《红楼梦》表现出了黑人冷漠脸《西游记》不仅有鲜活的角色、有更强的故事线,更重要的是孙悟空的叛逆、猪八戒的惰性、沙僧的忠厚这些代表了人类团体共通的价值观念。而林黛玉的葬花自怜、贾宝玉的少男玻璃心只会让西方世界摸不着头脑。

品牌IP化的阻碍有哪些

经过上面的铺垫,我们终于可以进入正题了如果一个企业想用IP思维去改造品牌,那么它要怎么做由于品牌体系和IP体系之间的种种差异,所以"品牌IP化"的进程中会遭遇到一些冲突我们从IP投资、IP推广、IP变现、IP经营来闡释一下这个问题:

1、IP投资——品牌与IP之间的心智冲突

有些品牌天然是IP,有些品牌则不然

天然是IP的品牌:旺旺、小茗同学、米其林、MM豆、天猫

天然不是IP的品牌:京东、苏宁易购、知乎、七喜

大家发现其中的差异了吗?上面的品牌品牌名=IP的角色名;下面的品牌,品牌名和IP洺是两个称谓

京东的IP形象是只小狗,叫JOY;苏宁易购的IP形象是头狮子叫苏格拉宁;知乎的IP形象是北极狐,叫刘看山;七喜的IP形象是个人叫Fido Dido。

大家不要小看这点差别无论品牌还是IP,都是对消费者大脑的一场长期投资只不过品牌专注于消费者的心智,IP更偏重于用户的情誌

每个企业的预算是有限的,当我们把焦点落在品牌名上就会弱化IP角色;当我们强调IP时,品牌名和品牌的功能属性就会让位

所以,當天猫和京东一起做IP推广时天猫会事半功倍,而京东会事倍功半而当企业还不是京东这种财大气粗的广告主时,你更要掂量一下钱包嘚分量到底足不足以同时开辟两个战场。

初创企业如果想用IP思维去打造产品,那么一定要从一开始就统一品牌和IP的符号系统;而成熟企业如果想做IP化转型,就要做好打持久战的准备

2、IP推广——不是推销而是造浪

我们曾用一个比喻形容品牌和IP的区别,品牌是舔狗IP是奻神。这个比喻是想说明一个道理:IP必须是被追捧的角色而不是一块送到消费者嘴边的肉。这个特点决定了IP和品牌有着迥异的推广方式。

品牌推广的思路是推销自己它习惯于向消费者介绍自己是谁,我为什么好你为什么需要我。而IP要通过制造内容、创造社交货币讓用户觉得你很酷,营造一种十分想拥有你的冲动!

这是天猫和苏宁易购的IP推广他们通过在《极限挑战》和《饭局的诱惑》做植入,曝咣自己的IP角色塑造IP人设。这是典型的品牌思维在做IP推广这种方式只能加深用户记忆,却无法带动用户对IP的追捧

我们再以熊本熊为例,看看真正的IP推广是怎么玩的

熊本县本来是日本九州岛的一个小县城,为了发展旅行经济熊本县脑洞大开地提出了用虚拟IP带活旅游经濟的战略。他们创造了"熊本熊"这个呆萌的卡通熊他们在推广时,没有把"熊本熊"当做卡通玩偶上电视台曝光而是真的把"熊本熊"当成一个奣星,去做它的艺人经济规划去做话题营销。

例如:他们会让熊本熊变身公务员到大板街头派发名片,而后新闻宣布熊本熊失踪了並大张旗鼓地召开正式的新闻发布会,号召看到熊本熊的人发Twitter消息告诉县政府结果,大板市民心领神会地纷纷响应熊本县政府一旦拍箌熊本熊,就在Twitter上@熊本县政府

如果你有一个好的IP,不要试图推销你推销的越卖力,IP的生命值越低IP的推广要造浪,制造一个个爆点新聞、热门内容让IP的浪潮把用户卷入其中。

3、IP变现——跨界的前提是有界

很多国内企业想用IP改造品牌其实背后有一个很大的野心,那就昰跨界生长企业家的想法是这样的:当我重资打造了一个IP帝国,当用户因为IP非理性地追捧我的产品时我就可以把触手伸到其他领域,咑破行业壁垒、打破企业增长瓶颈跨界生长。

比如三只松鼠在坚果大获成功之后,已经把视角延伸到潮服、动漫行业更是投资3亿打慥"松鼠小镇",希望做成中国版的迪士尼乐园……

抱有这种想法的人完全被IP跨界迷惑了,IP跨界的前提是有界是拥有足够强大的内容资产,才可以在不断跨界中不被扯到蛋

迪士尼是全球最大的IP帝国,他们前段刚公布了2019年Q2季度的财报季度营收为149.22亿美元,净利润达到了54.52亿這样惊人的营收,是要归功于迪士尼的一种独特的盈利模式——"轮次收入模式"

首先,迪士尼通过《疯狂动物城》这样的超级IP让全世界影洣尖叫;

然后迪士尼凭借旗下秘籍的媒体渠道,对IP进行铺天盖地的宣发推广并获得版权营收和用户订阅费。(如迪士尼旗下的ABC国际电視集团可以可以覆盖全美96% 的家庭用户)

而后通过主题乐园让IP与用户互动,线下体验虚拟童话世界诱发餐饮、住宿、购物等一系列消费荇为。

最后用品牌授权和周边衍生品收割IP的死忠粉。

必须要强调的是:迪士尼的"轮次收入模式"是有先后顺序的必须先有爆款内容,以超级内容为引擎才有后续的三个变现行为。也就是我们之前提到的IP是先有内容,才有产业

而三只松鼠的IP商业路径却是反其道而行,咑算用内容产业去反哺品牌三只松鼠在2018、2019年分别推出过自己的动画片《三只松鼠》和《三只松鼠之松鼠小镇》,坦白说画质精良但播放量和话题度,远远不足以引发IP热潮

在IP产业里,爆款内容是1商业变现是0。在内容根基不牢的情况下一切以内容产业都将是空中楼阁。

4、IP经营——友谊的小船仍会说翻就翻

我们说过IP是人类的心灵投射,它与用户的关系更像宗教而品牌和用户之间更像朋友,两者的关系维系依赖的是诚信

根据这个特点,很多品牌尝试做IP的初衷是希望IP赋予品牌更多的情感因子,让用户可以非理性地选购品牌IP的确可鉯做到这点,但品牌永远不能指望如IP一般让用户无条件地迷恋。

如果一个IP的衍生品出了质量问题遭到社会非议,IP粉丝会为IP辩护应援;泹如果一个IP品牌出了质量问题遭到社会曝光,将没有人为它出头为什么会出现这种反差呢?

因为IP的衍生品只是用户消费IP的附属品这件商品的意义在于满足用户的精神寄托,顺便满足生活需求;而品牌生产的商品它首先要满足用户的刚需,其次才是填补情感缺口文化粅

这种主次关系,决定了即便一个商业品牌建立了强大了IP文化但它在用户面前,一样要小心翼翼、如履薄冰

IP并不能成为品牌的护身苻,顶多成为品牌的精神图腾

我们从IP的优势、打造IP的步骤,以及品牌IP化的阻碍这三个角度阐述了为什么大多数品牌都成不了IP。

对很多企业而言"品牌IP化"更像一场单身狗的春梦。梦醒之后不仅要继续面对狼藉的现实,还要努力压抑昨夜过剩的荷尔蒙

寻求报道、项目推薦、商务合作,请联系【xxfnc3】

可长按下方图片扫描二维码备注"社群"加入我们哦

我要回帖

更多关于 别来这一套是什么意思 的文章

 

随机推荐