感染力六原则STEPPS:如何将信息有效传播,让产品广为流传?

随着信息传播方式,从过去的单点自上而下逐渐向多点对多点的立体网络转变,如何将更有效的信息传播出去,并变得流行,一个好的口碑成为了关键。美国营销学教授乔纳·伯杰在<疯传>一书中提出的STEPPS原则,对很多营销事件做出了非常棒的解释。

1. 社交货币:帮助人们被赞美,被喜欢

人们经常会分享一些有趣好玩的事情给好友,社会心理学中对这一行为作出了解释,出于被别人赞美,或炫耀的内在动机,人们很乐于分享,如果只是出于别人的要求,个体往往会拒绝或者逃避。所以让一个产品或信息更好的被传播,首先需要让人们发自内心的乐于分享。我们可以通过以下两种方式来建立社交货币。

  • 提升内在的吸引力:一般人们对某件事情或某个观点都有自己的固有认知,打破这种思维定势,而分享或炫耀这种与众不同的观点,不但可以引起人们的关注和思考,同时也会得到别人的欣赏;通常一些可以引发争议或神秘的事件也同样可以引起别人的讨论;一个没有太大吸引力的事情,往往是因为人们对这一事件的细节还了解不够,第一时间将这些不易被发现的细节呈现给用户,可以增加不少的关注。
  • 营销归属感和满足感:制造产品的稀缺性和专属性,让获得产品的这些人们觉得自己与众不同,可以有向朋友炫耀的资本。

2. 诱因:让产品经常被提到,而且更容易的被看到

一种产生动机的外在因素被称之为诱因,对传播的时效性来说,有即时性和持续性之分,一些新奇的,有趣的事情通常不会形成持续性的传播,只有我们把一件事情变得随处可见,并且和我们的日常生活息息相关,才可能让这个事情变得流行。

比如:喝可乐这件事情,逛街购物累了坐下休息的时候想喝点什么,买了一听可乐,喝完后精神焕发,运动完休息的时候想喝点什么解渴,又看到了可乐,喝后精力再次充沛,口渴就相当于一个诱因,当人们下次再渴的时候就会第一时间想到要喝可乐,于是渐渐的喝可乐这件事件就变得流行起来。

3. 情绪:帮助人们产生情感上的共鸣

一件事件发生的时候,如果人们没有什么感觉,基本上就不会和别人分享。如果这个事情能够让一个人生气或开心的话,他希望和别人产生情感上的共鸣,就会可能分享给别人。所以发生一些可以引起人们高唤醒的事情,就可以激发人们共享的冲动,比如,对某件事情产生的敬畏之情,对他人的担忧,运动同样也可以引起人们的生理唤醒,点燃人们分享的热情。

4. 公用性:提供一种社会证明,帮助人们产生从众心理

社会心理学解释,人们都有一种从众心态,看到多数人的行为,总会想着去模仿,因为这可以省去自己很多思考的时间,所以让需要流行的事情变得可观察,可以很好的给别人提供一个社会证明。通过设计一些可以自宣传的产品,或者利用用户的行为剩余,都可以达到公用性的效果。比如,服装品牌商经常会给每位顾客一个带有logo的购物袋,这样在用户完成购物时,拎着袋子四处逛的时候,就再不断的给品牌宣传。

5. 实用价值:帮助人们省钱,省时间

人们乐于互相帮助,是因为可以从彼此的身上获得有价值的信息。卡尼曼有一个前景理论,提出人们一般是根据比较原则或参照点来评价事物,如果可以给用户提供一些超预期的产品或信息,就很容易让人们乐于分享起来。就像买东西,人们乐于分享折扣有的时候是因为只有数量足够多的时候,才可能享受到最大折扣。但我们一定要提供真实的有用专业知识。

6. 故事:帮助人们更容易的记住

故事是通过叙述的方式,讲一个带有寓意的事件,特洛伊木马的故事已流传了上千年,人们百听不厌,因为讲故事是我们理解世界文化的一种方式,故事生动并蕴含意义,可以让我们比较容易的记住,而且分享给别人,给产品叙述一个有内容的故事,可以让着产品更容易的被记住并传播。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值