消费者在数学上无望的11种方式

消费者在数学上无望的11种方式 

 

你走进一家星巴克,看到店里对同一杯咖啡提供两种套餐:第一种是加量33%不加价;第二种是原价降价33%。哪种更好? 

“它们差不多一样!”,如果你和参加发表在《市场营销杂志》(Journal of Marketing)上的一项新研究的学生们一样的话,你会这样说,那么你就错了。这两种套餐看起来好像相等,但是实际上,33%的降价相当于加量50%。数学计算时间:假设标准咖啡的价格是一美元三夸脱(即每夸脱0.33美元),第一种套餐一美元可以买到4夸脱咖啡(即每夸脱0.25美元),第二种66美分可以买到3夸脱咖啡(即每夸脱0.22美元)。 

结果:免费得到多余的东西比得到同样的东西、花钱更少,感觉好点。对这一简单事实的应用却是极广的。卖燕麦么?别谈什么降价,讲讲盒子大了多少!卖车?省省大谈MPG转换的口水吧,谈谈能多跑多少英里。 

这种小技巧能行得通,有两个主要原因:第一,消费者们不知道到底商品该花多少钱,所以我们就依靠我们大脑中并不严格定量的部分;第二,尽管人们花的美元是有限的,但是我们却依据加起来能导致数学盲的线索和半思维来做出决定。 

下面是另外十种消费者数学很差的方式,在历史学家兼作家威廉·庞德斯通(William Poundstone.)帮助下完成。 

(2)我们受到第一个数字的严重影响。你走进一家高端的商店,就假设是爱马仕 (Hermès,是世界著名的奢侈品品牌—译者注。)吧,你看到一个包包的标价是7000美元。“哈哈,那简直贵得离谱!”你和朋友说。“7000美元就买一个包!”然后你发现了一款很好的手表,标价367美元。和天美时(Timex,是美国人最喜欢的时尚类手表品牌,以低端产品为主—译者注。)手表相比,这款绝对超贵。但是和那款你刚刚记得的7000美元的包包相比,这绝对是便宜货。这样,商店就能调整或者定下你的消费预期。 

(3)我们很害怕极端。我们不喜欢廉价的感觉,我们也不喜欢上当受骗。既然我们不确定商品的价值多少,我们就会避开过高或过低的价格。商家就会利用我们对中庸的偏爱来对付我们。下面是个不错的故事: 

人们有两种啤酒可以选择:2.5美元的高级啤酒和1.8美元的廉价啤酒。约80%的人会选择更贵的那种啤酒。现在引进第三种啤酒,除了前面两种,还有一种超便宜的啤酒,只需1.6美元,现在80%的人会买1.8美元的啤酒,其余人会买2.5美元的啤酒。没有人选择最便宜的啤酒。 

第三次,他们撤去了1.6美元的超便宜啤酒,换成一种3.4美元的超高级啤酒。大多数人选择2.5美元的啤酒,一小部分人选择1.8美元的啤酒,约10%的人选择最贵的3.4美元的啤酒。 

简而言之,我们都是金发姑娘。(Goldilocks,童话故事“The story of the three bears"里小女孩的名字。故事里Goldilocks去了三只小熊家,总是选软硬中等的椅子和床等---译者注)。  

(4)我们都爱理由。在其著作《无价之宝》中解释了,当威廉姆斯-索诺玛公司(Williams-Sonoma)在279美元的模型旁边加上一个429美元的面包机后,发生了什么:便宜的一款的销售量翻倍,尽管实际上几乎没人买那款429美元的面包机。经验教训:如果一款产品卖不出去,试着在旁边放置一个外形几乎差不多、但是价格却是其两倍的产品。这让第一款产品看起来像是个一定要买的便宜货。这种策略有效的一个原因就是人们喜欢理由。由于很难知道商品的真实价值,我们需要一些说法来向我们自己解释所做的决定。价格差异为我们提供了一个理由和一个动机:那个279美元的面包机比另一款便宜了差不多40%--我们占大便宜了!好理由。  

(5)我们被告知什么,就做什么。行为经济学家喜欢在学校里做实验,他们发现在水果上闪点光、把沙拉像糖果那样摆放,可以让孩子们多吃水果和沙拉。但是成人们也同样受这些简单游戏的影响。例如,一些精明的餐厅,就会利用一些简单的技巧,如图片和画框等设计菜单,以将我们的目光吸引到最有利可图的菜品上。好的经验法则:如果你看到菜单上一道菜是被突出的,画框的,配图的或是与一个非常昂贵的菜品放在一起的时候,它可能就是一个高利润的产品,餐厅希望你能看见并考虑。 

(6)我们让情绪控制自己。庞德斯通的书中一个著名实验中,为志愿者们提供10美元以内的一定数量的钱。一些被认为是不公的出价(假设是1美元),会激活脑叶皮层,“另外这也会由疼痛和恶臭引发”。当我们觉得我们被宰的时候,我们一般都会觉得恶心—即使是个还不错的交易。庞德斯通将此与迷你吧实验等同起来。很晚了,你很饿,那就有一个士力架,但是价格让你觉得非常不爽,于是你决定宁愿饿着自己,也不要觉得是被宰了。另一方面,便宜货让我们自我感觉良好,即使是世界上最没用的垃圾也会很有吸引力,只要价格非常便宜。  

(7)我们很容易被酒精,时间,决定变得更笨。年轻的时候,你在一家酒吧喝醉了,你很容易和陌生人做一些蠢事。“我有没有全面地评估这个复杂的浪漫情景呢?”,喝了7杯酒后,这个问题就很难回答了,所以我们通常会问自己一个更简单的问题:“他/她性感吗?”我们在喝醉、倍感压力、疲累等等疏忽的时候,关于买东西,我们更可能会询问和回答一些简单的问题。杂货店里,便宜的糖果条和口香糖通常放在收银台附近,因为那里是疲惫的购物者最有可能放纵渴望而不关注价格的地方。有酒的午餐有利于达成协议,因为酒精会立即缩小我们脑袋里的复杂因素的范围。如果你想让某人冒一次被低估的风险,把他灌醉,或者让他疲累或耗尽其自我。  

(8)我们心疼交易成本。在这里的一个私人理财专栏里,梅根·麦卡德尔(Megan McArdle)请她的读者放弃一些经常性支付的交易,例如健身房会员和订阅并不使用的报纸和服务。“别买那些你不消费的东西。”似乎是个再清晰不过的建议,但是梅根有重要的一点。我们受一些订阅、会员制和捆绑产品的吸引,部分是因为我们试图避免交易费。我们宁愿多付一点点,也不愿遭受拿出钱包、看着我们的钱流向每个健身房季/电影等等时的心理之苦。  

(9)但是关于回扣和担保我们却表现得很怪异。现在既然我已经告诉你消费者避免另外的支付,我应该加上两种我们喜爱的额外支付:回扣和担保。第一种购买财富的幻想(我花钱还有钱拿!)第二种购买心理的安宁(现在我能永远拥有这个东西,不用担心了!)这两种基本都是伎俩。“与其购买一件东西然后拿折扣,”庞德斯通写道,“为什么不一开始就支付较低的价格呢?”。 “ [担保]没有任何合理意义,”哈佛经济学家大卫·卡特勒(David Cutler)这样告诉《华盛顿邮报》,“一个产品坏掉的隐含概率要大大高于你负担不起修理或更换的风险。如果你买了一个400美元的东西,对大多数消费者而言,那种消费水平在任何情况下,都不是你需要保证的风险。” 

(10)我们迷恋数字9. 高达65%的零售价格以9结尾,为什么?人人都知道20美元和19.99美元是一回事。但是数字9告诉我们一个简单的道理:这件商品打折了。这件东西很便宜。这件东西是某个知道你喜欢打折和便宜商品的人定价的。换句话说,9已经超越了魅力价格的地位,成为买者与卖者之间一根承载无声理解的电缆,说明该产品定价非常合理、有竞争力。一家高档餐厅里的壳鱼拼盘的定价里有9是很愚蠢的。没有一个愿意花170美元吃龙虾的人会寻求打折。但是同一个人,在买内衣的时候(研究已经反复显示),更可能会买价格是以9结尾的产品。记住:购物是一个注意力游戏。消费者们不仅是在寻找产品。他们也在寻找产品值得购买的线索。我们大脑中寻找便宜货/打折品的角落在数字9中发现了可以达成的交易。  

(11)我们受一种强烈的公平感控制。我已经解释过我们的大脑在看到便宜货和宰人货时如何有不同的反应。购物者的大脑受一种公平感推动。我们又回到我们不知道东西该花多少钱这点上,所以我们利用线索告诉我们应该为商品花多少钱。经济学家丹·阿雷利(Dan Ariely)做的一个实验非常好地解释了这一点。阿雷利谎称他要办一个诗歌朗诵会,然后他告诉一组学生,门票要花钱,告诉另一组学生参加朗诵会有钱可拿。然后他再告诉两组学生,朗诵会是免费的。第一组学生急于参加,认为他们免费得到了一些有价值的东西;第二种学生大多数拒绝了,认为他们被迫为同一个事件志愿服务,却没有补偿。  一个行为经济学家的诗歌朗诵会价值几何呢?学生们不知道。这就是关键。我也不知道。这也是关键。一件全系扣的衬衫价值多少呢?一杯咖啡价值多少?一张人寿保险单价值多少?谁知道!我们大多数人不知道。结果,购物大脑只在知道的地方使用:视觉线索,激发的情感,比较,比例,关于便宜货vs. 宰人货的感觉。我们并不愚蠢。只是易受影响。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
【7层】6900平米左右一字型框架办公楼毕业设计(建筑结构图、计算书) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值