我的十年创作之路(二)——散稿创作经验谈

    大家如对下文中提到的图书感兴趣,可点击这里了解《网管员必读》和《网络工程师必读》两系列丛书,目前两套丛书正在进行回馈读者大行动,购书即有好礼相送。
 
    在上一篇中回顾了我这十多年的写稿生涯,其中有非常令我兴奋和满足的笑容,也有我艰辛付出的背影。从本篇开始要向许许多多希望从我这里得到写稿、写书经验的“网管员必读”系列图书读者介绍一些我这十多年来的散稿和图书创作经验所得,希望能为他们在日后的写稿、写书方面起到一定的作用。
 
说实在的,仅就散稿创作方面,这十多年来,的确积累了许多我自己认为非常有用的经验,在此因为篇幅原因不可能一一介绍,只向大家介绍一些主要的。
 
一、选择好主流合作媒体类型
 
“散稿”创作是指为一些报刊、杂志社、网站等媒体写的单篇散稿,不包括整部图书的创作(图书创作经验将在下篇介绍)。总的来说,散稿媒体主要有平面媒体和网络媒体之分。平面媒体通常又称为“纸媒”,如《电脑报》、《中国计算机报》、《计算机世界报》、《网客员世界》、《电子报》、《家用电脑》、《电子世界》等;“网络媒体”就是指一些专业网站,其中就包括门户网站和垂直专业网站,门户网站如网易、新浪、搜弧和雅虎等,专业媒体如天极网、 IT168 、太平洋电脑网、计算机世界网、 e800 、 eNet 等。
 
现在各种媒体非常发达,约稿量非常之大,这对于爱好写稿,且有这方面特长的朋友来说是最大的利好消息,因为从中可以获得甚至远比正式工资都高许多的额外收入。而且写散稿通常不受时间、地点的限制,不影响正常工作、学习与生活,非常适合稿额外创收。但作业专业农牧民稿人来说,我们应该选择好适合自己喜好和专业特点的合作媒体。
 
虽然现在各媒体对稿源的竞争也非常激烈,稿费标准较以前都有了较大提高,但是不同媒体、不同类型的媒体稿费标准和字数方面均有不同要求。如现在平面媒体的每千字稿费通常在 100 元以上(我最高拿过 200 元 / 元千字),但因受版面限制,字数一般要求非常少,一般都在 2000 字以内,除非是专题,或大型报道;网络媒体的稿费标准相对较低,但目前至少也有 60 元 / 千字,有些评论性质的高达 300 元 / 千字(我也拿过不少),但因版面基本上不受限制,所以字数方面的要求相对宽松许多,一般 3500 字左左右的稿件还是可以接受的,而且越是专业作者,这方面的限制越宽松(我的稿件一般都在 5000 字以上)。至于如何选择合作媒体类型,我个人认为,如果文学水平不是很好的作者,建议选择平面媒体,因为那里的字数要求很低,容易把握,只要把相应的技术、产品和方案介绍清楚即可,但这类媒体的约稿量通常比较少,因为一般都是一个星期才一期,每一期一般只能刊登同一作者的一至两篇稿件。而对于文学水平较高、创作能力较强的作者,我建议选择网络媒体,虽然单千字的稿费标准较低,但字数限制较宽松,而且是每天都有内容更新,也就是说作者可以每天都有一篇,甚至多篇稿件发表,其稿费收入肯定比平面媒体的要高许多。我一般选择网络媒体,对于平面媒体一般只接专题性质的。
 
二、力求专业、有深度
 
许多初学写作的人认为写一篇几千字的稿件很容易。其实这是非常错误的,一篇好稿,不要说几千字,就是几百字也能充分体现作者的水平,也可能是一篇非常难得的好稿。写稿不是凑字数,而是要求作者从“专家”角度在这几百、几千字中把相应的产品、技术和方案介绍得非常精炼,透彻。绝不是随便到网上抄一些产品或技术参数可以做到的。我在写每一篇时,都会充分注意到这一点,特别是看似非常普通的选题,一定不要停留在产品或技术的表面,而要查找相关资料,充分挖掘选题的内涵,尽可能写出有一定深度、不同凡响的作品,这样才能体现自己真实的写作能力和技术水平。
 
三、认真对待每一细节
 
许多作者在写稿时总是想着尽快完成,尽快发给编辑,结果大多数是随便在网上抄一些相关内容,稍做整理就发出去了,结果往往是从此了无音讯。我从不这样,我在写稿时一定会时刻提醒自己不能随便,不仅在内容上尽可以充分体现自己的专业水平,而且还会在组织形式、稿件格式上非常认真,做好每一个细节,让编辑们从中可以看到自己在写稿方面素质中每一个值得称道的细节。也有不少作者向我投稿,我一看他们的稿件结构和排版就不想再看下去了,因为从其版式中我都可以看出这位作者的功底。一篇好的稿件不令人难忘 要求专业的技术,同样还需要有好的内容组织形式和版式面布局。因为媒体编辑们仅能通过我们所提供的稿件了解自己的各方面实际能力,这样随便写稿,对编辑,对自己都是一种极不负责任的态度。这样做很可能就因自己的不认真断送了自己至少在一个媒体上的写稿之路,因为同一媒体的不同频道的编辑是相通的。相反,如果我们能在稿件中做好每一个细节,不仅能让编辑得到专业的稿件,而且还让编辑在阅读稿件时有一个赏心悦目的感觉,效果会明显不同的。说不定这编辑会向同单位中的其他频道编辑推荐自己,我就有过非常多这样的例子。正因如此,我在一个媒体中通常不是为一个频道写稿,而是为多个频道。这样一来,何愁没稿写?根本不用四处找编辑约稿了。如我在天极网上曾经为五个频道写过大量的稿件,它们分别是网络、服务器、办公设备、计算机硬件、笔记本。在 IT168 上我也有好几个频道,如有线网络、无线网络和服务器。
 
四、到官方网站上找一手资料
 
写稿肯定是要相关的技术或产品资料来支撑的,不可能全凭自己拍脑袋。像那些新产品和新技术,我们以前谁都没见过,无论怎么拍脑袋恐怕都想不出来。但要注意,我这里说的找资料并不是要作者抄袭官方网站的文件,只是引用一些技术。有些作者喜欢通过搜索引擎在网上搜索相关的资料,这的确是一种方法,但是我认为它不是首选的。我写稿件的第一步不是随便在网上搜索,而是直接到相关公司的官方网站上找第一手资料,通常是国外网站的资料比较齐全,也比较详细。这样一来,写出来的东西才够专业、够详细,而且还不会与国内其他作者写的稿件有雷同之嫌。对于这类稿件的写作要分两步进行了,首先是先自己看懂其中的技术、原理或产品特征,然后再用自己的组织方式,从一个“专家”的角度进行相关产品或技术的介绍,并向用户推荐。
 
当然这要求作者在计算机英语方面的水平比较高,不过,最开始可以不是很懂,对于不懂的术语我们可以通过在网上搜索找到解释,千万别用英汉词典,或者像金山词霸之类的英汉电子词典来找答案了,这样的答案大多数是不专业,甚至不正确的。通过不断地积累,你会学习到许多计算机,特别是网络方面的专业术语,会慢慢觉得不再需要依***词典了。这档一来,你写的稿件就更显专业性,一定会受到编辑的好评。我习惯光顾的英文网站包括 Intel 、 Microsoft 、 AMD 、 IBM 、 HP 、 SUN 、 DELL ,以及国内大厂官方网站,曾经写过不少来自国外第一手英文资料的稿件,如 IBM 的企业级 X 服务器架构,从第一代写到现在的第三代,还有如 PCI-X 、 PCI-E 、 SAN 等技术。
 
当然对于一些综合性质的选题,在官方网站上找不到资料的,可以在网上搜索一下,先盾一下其他作者写的同类稿件,最好多看几篇,而且最好选择比较正规的媒体稿件查看,因为这类媒体的稿件都经过编辑审核,一般来说不会有太大的错误。然后综合所参考的资料,用自己的方式写一篇综合几篇稿优势的稿件。
 
五、尽可能少地引用产品和技术参数
 
许多作者在写稿,总是想用得来全不费功夫的产品或技术参数提高稿件字数,以便得到更多的稿费,或者使稿件写作更容易。其实这是非常不可取的。因为产品和技术参数大家都可以从产品或技术介绍中得到,根本不需要在你所写的稿件来完全体现,这样的稿件编辑根本不用你来写,他们自己随便到相关网站引用一下就可以,何必花几百元的稿费给你。当然这里也产不是说完全不能引用产品和技术落后参数资料,只需引用主要的产品或技术关键特征,而且最好从一个专家的角度进行深入一些分析。
 
六、要讲究效率
 
我们写稿一定要讲究效率,不能写一篇几千字的稿件要让编辑等上一个星期,或以上,这样,编辑就非常难做,而且在编辑的心中,你的能力也大打折扣。我一般写一篇稿都在两天左右,如果是专题,也就会按每篇两天左右的时间分篇发给编辑,不要让编辑等得太久。只有这样,编辑才敢向你约大量的稿件,否则你永远也只能作一般普通的作者,而做不了主力,更不要说签约了。我前两年,专门写稿时,基本上每天一篇,稿件多得写不完。不是我没稿写,而事实上是我写不了那么多,有许多原来不怎么合作,但慕名找来的媒体,特别严重是平面媒体,我一般都只能谢绝。所以,我基本上是只向少数几个大的媒体写稿,如天极网、 IT168 和 e800 等,而且我的约稿多得写不完,不是像许多作者那样,四处找稿写。
 
七、有诺必履
 
当编辑向你约稿时,你要仔细根据相应稿件编辑的难易程度和稿件篇幅的长短来向编辑承诺发稿的时间。不要轻易做出不符实际的承诺,但一旦做出承诺,就一定要要履行自己的承诺,无论出现做种变故。千万到时交不了稿,就以自己近期比较忙,或出现了什么事等原因向编辑解释。每个编辑的发稿都是有计划的,你如果不能按时交稿,势必打乱编辑的整个发稿计划,更重要的是给编辑留下一个不好的印象,下次可能就不敢再向你约稿了。
 
八、不要轻言谢绝
 
当编辑向你约稿时,尽可能不要谢绝。因为编辑向你约稿,是对你的信任,特别是一些难度较大的稿件。你如果能接下来,并且写出高质量的稿件,在向编辑证明了你的写作实力的同时,也帮了编辑一个大忙,他也会对你特别信任,也会心存感激的。我就是这样取信于编辑,并让编辑不断感激我的( ^_^ )。我所写的稿件大多数是属于中等偏上难度的,有相当一部分,编辑是明地向我说明,说找了好多作者均无法完成的。如我写过许多大型专题,如“打印三国技术较量”、“主流笔记本厂商服务比拼”、“服务器厂商产品比拼”等。这些我一般都会按时、高质量把稿件交给编辑,得到了编辑们的信任,所以他们会不断地向我约稿。尽管因近两年写书任务重,向编辑们说明我没有时间再写稿,但他们仍一直想请我为他们写稿,直到今天。这也许就是我自己的品牌吧。
 
以上就是随便于工作写下的几点经验,其实还有很多,因为本篇篇幅已够长的了,所以不便于工作再写下去了。下篇将介绍一些图书创作经验。我希望到时时间允许的话,专门写一部这方面的图书,不知读者们是否需呢?
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值