如何写好和创作经济学论文?

经济学论文的创作是一个从发现问题、提炼经济学问题到理论创新的过程。作者提出,发现问题主要通过真实世界、大众传媒、与人沟通和阅读文献。提炼经济学问题时,需将问题用经济学语言描述并确保问题符合经济学学术传统。理论创新体现在提出新观点、使用新分析方法或提供新经验证据。论文结构包括导论、故事、模型、检验和结尾。导论需引起读者兴趣,模型要提炼关键因子,理论需经过计量检验。最后,作者强调了论文投稿和参会的重要性。
摘要由CSDN通过智能技术生成

正文

以下文字作者:中国人民大学经济学院聂辉华教授

学生和学者最发愁的事情之一,是写论文和发论文。本文基于我11年前在中国社科院研究生院的一次讲座整理而成,发表在《经济学家茶座》上。虽然是11年前写的文章,但是主要观点并未过时。我进行了一些修改,重新发布,希望对学生和年轻的同行们有所助益。需要说明的是,这本是一次讲座,不可能有太多自己的“创新”。
绝大多数学习和研究成果总是通过学术论文来体现的,经济学也不例外。但是经济学论文的写作在许多方面不同于其他社会科学。尽管我们从小学就开始练习写作文,但是符合国际主流标准的经济学论文仍有许多独特的地方,因此许多人对于如何写经济学论文感到无从下手。我接触过不少经济学科班出身的名牌大学本科生和研究生,发现他们对于如何写标准的经济学论文也感到迷茫,教师们几乎从来没有教授过如何创作经济 学论文。联想到国外大学一入学即对新生进行关于学术道德和学术创作的教育,痛感这实在是我国经济学教育的悲哀。我愿意将我自大学二年级发表论文以来的一些所思所想、所感所悟告诉大家,与大家一起探讨这个问题。
1、发现一个好问题
尽管有不少的文章谈到如何创作经济学论文,但是恐怕没有谁会否认应该从这里起步。学术研究总是从对一个问题感兴趣开始的,所以能否提出一个“好的”问题就基本决定了论文的质量了。现代经济学被认为是解释世界的科学,而不是改造世界的科学。因此,同学们不要立足于为解决问题而写论文,即便想解决问题,也要从分析问题入手。绕来绕去反正都离不开“问题”。那么如何发现问题呢?我把问题的来源归纳为四种途径:一是真实世界,二是大众传媒,三是与人沟通,四是阅读文献。前面两种途径是通过现象来发现问题,而后面两种途径则通常是从问题到问题。
在真实的世界里发现问题可能是最主要的途径,许多经济学家都承认他们的灵感来自于对真实世界的感悟。因此,只要你细心观察周围的世界,多到企业或者市场里去逛逛,就有发现问题的机会。我们常说学经济学需要有“经济学感觉”,我理解,除了指能够理解数学模型背后的经济涵义之外,更重要的是能将经济学理论与现实相对接。比如,你在外地叫出租车时可能会发现,司机问乘客,是愿意打表还是一口价(固定费用),这其实就是一种信息不对称下的类型甄别问题(screening)。
中国的学生课业负担较重,学校又很少安排学生去“体验”市场经济,因此通常没有多少机会去企业和市场。一个替代的办法就是借助大众传媒,比如电视、报纸、杂志、网络等。这些传媒通常有很多内容是关于经济现象和经济理论的,而且通常是比较典型的现象或者是热点问题和难点问题。我的经验是,对于这些经济类的报道,你不必完全相信他们的分析,但是可以关注他们说的现象,然后用自己的理论和头脑来分析。大众传媒放送给你的经济报道,你可以视之为“案例”。因为我从来不看电视,所以只能谈谈其他几种我认为容易使你发现问题的媒体。我愿意推荐的经济类报纸是《经济观察报》、《中国经营报》和《21世纪经济报道》,这些财经类报纸时效性强、内容新颖,而且资深记者的报道通常有一定的深度。杂志相对于报纸而言,可能更彻底、更有深度,较好的中文杂志(不是学术期刊)比如《财经》以及财新网下属的《中国改革》和《新世纪》等。至于网络,那就比较多了,我认为不错的财经类网站有新浪财经、搜狐财经以及FT中文网、华尔街中文网等新兴媒体。
这两种途径都是试图从现象中发现问题。那么,哪些经济现象通常是有价值的现象呢?一般认为有四个标准。标准之一,一种新的现象,比如当时的联产承包责任制、股份合作制,当前的混合所有制、互联网金融&

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

a useful man

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值