做phodal的御用编辑,其实我是拒绝的

前情回顾:

极客爱情 2.1 |  从你的编程世界路过

极客爱情 2.2 |  你究竟有多少个女神

   极客爱情  2.3 |  和技术宅约会是这样的

极客爱情  2.4 |  和程序员男友过节是这样的


640?wx_fmt=png

◆ 01

某人的第一本书出版了,收到出版社寄来的样书的时候,某人并没有显示出异样的激动,反而是我,兴奋地拆开包装,迅速翻看了扉页、序、前言、封底,没有提到我,没有提到我,没有提到我……

我失望地将书扔在了沙发上,朝他嘟嘴。

“你居然连一个向我致谢的字都没有写......”

他见我一副委屈欲落泪的样子,便过来抱了抱我:“好好好,不哭不哭,这回忘记了嘛,下一本书一定写上。”

一听到他说下一本书,我的内心越发心酸。

我还要做多久他的御用编辑?要等他出到第几本书,我才能迎来自己的第一本书面世?

一面恨恨地捶他,一面答应着说好。

0?wx_fmt=jpeg

◆ 02

对于他写书译书这件事,我打心底里是拒绝的。一方面是因为这非常打击我的自信心,频频增加我的挫败感;另一个很重要方面,则是因为他写书译书的过程,对我而言,实在是太痛苦了。

他和大部分理工科学生一样,拥有不太流畅的表达能力。更因为他长期阅读翻译水平参差不齐的外来技术书籍,造就了他极具英文语法习惯的中文表达。举个简单的例子,我们一般会说“你中午吃了什么”,而他写出来的句子,可能就是“什么你吃了,作为今天的午饭”——当然,他还不至于表达不清一个这么简单的句子,但就他写的文章来说,大致就是这个意思。

于是,从他的毕业论文时代起,我就肩负着一个重任:替他修改文章。当然,这也只能怪我自己no zuo no die,平时嘴欠,总是嫌他语言表达bug多多:语法有问题逻辑有问题语言不通顺行文不流畅......

“那你帮我改一下咯。”

出来吐槽,总是要还的。


0?wx_fmt=jpeg

◆ 03

也是从帮某人改毕业论文开始,我才发现我身上有个神技能。那就是虽然我可能看不懂通篇文章究竟在讲些什么,但这一点也不耽误我把文章中的每个句子修改凝练,乃至调整段落间的逻辑关系,使之成为一篇更优质的文章。

那个瞬间,我突然觉得我的身上,还是有一些天赋异禀存在的。

某人显然发现了我的这个技能,因为,当他的同学们都忙着一遍遍修改论文的时候,他豪爽大气地把论文扔给了我,然后,让我帮他完成最后提交前的修改。

不过,我不会告诉他,后几回修改,我只是看了看开篇的绪论,改了改绪论中明显的错别字和标点。


0?wx_fmt=jpeg

◆ 04

某人毕业不久后,就接了第一本翻译。——虽然那本书到现在都还没面世。

他翻译的速度很快,以一两天一章的速度前进着,没过几天,就把译稿发给了我。

“帮我过一遍吧。”

而他的这句“过一遍”,花了我半个暑假的时间。

那是一本关于物联网的书,我发誓我由衷地讨厌物联网这三个字。

我打开他的译稿,映入眼帘的是狗屁不通的话;我将原文复制粘贴进谷歌翻译,出来的结果和某人的译文相差并不很大。确切地说,他只是稍微调整了一下语句,改了几个专业名词而已。

我向他提出了异议。

他说:那你就改一下呗!

他说话的语气,仿佛这件事和中午吃肯德基一样轻描淡写。

我在学校里呆了一个月,泡图书馆,蹲咖啡馆,拿着笔和本子,对着我那分辨率极低的笔记本屏幕,坑坑洼洼地往下读。

相信我,虽然也算是囫囵吞枣地看完改完,我依然不知道那本书究竟讲了些什么。我只知道,有很多图片和代码块的章节,看起来格外可人。

0?wx_fmt=jpeg

◆ 05

他把第一本翻译发给编辑后没多久,就迎来了第二本。还是物联网,更厚,更枯燥。

这回是他和他的两个好基友翻译,而我依然可能连出现在致谢里的机会都没有,却依然要承担义务编辑兼审校的职责。

相信我,每看一行字,我都觉得我需要去吐一会儿。

那阵子我见那书实在讨厌得很,消极怠工了好一阵。

基本上每天下午某人下班回来,在去吃饭的路上,某人都会问我:翻译看得怎样了?

见我支支吾吾找词搪塞,某人便知结果:“没多少时间了,你赶紧看看啊。”

我打开文档,看了两行,那时候觉得连最生涩的《现代汉语》课本都无比可亲可爱,连《查拉图斯特拉如是说》都像言情小说。

恕我无能为力,实在是——太让人作呕了。

后来我还是随手翻阅了一下,改了些无关风月的错别字,将译稿发还了给他。

“你以后要接翻译的话,接个HTML啥的行不......”我在微信上同他说。

0?wx_fmt=jpeg

◆ 06

某人一直相信勤能补拙。甚至相信这个世界上没有什么东西是学不会的,只要你努力去学。

“那比如唱歌呢,像我对音乐毫无感觉,再怎么学,音痴还是音痴啊。”

“那一定是没掌握正确的方法。”

我嗤之以鼻。

“再说了,你唱歌跑调,就可以学习唱不在调上的歌。”

我竟无言以对。

不过话说回来,他的语言表达能力,经过他有目的性的训练和练习,的确长进了不少。如果说我刚认识某人的时候,他写的一段话里一共有十句,可能十句都有语病;如今,大概至少有五句能表达流畅。

所以,某人就开始了自信满满的写书之旅。

倒霉的我,又帮他过了几遍稿件。觉得他的编辑应该好好谢谢我才对,不然他的编辑拿到的稿件,可能就要更狗屁不通一些了。

后来我把这些审校经历写在了我的简历里,阴差阳错的得到了现在的工作机会。不过我最终还是没能由衷地爱上技术,就在昨天,我向boss提出了离职。

然并卵,因为,某人又开始写第二本书了......

也不知道某人收到稿费之后,会给我发多少奖金。

640?wx_fmt=png

640?wx_fmt=jpeg

文 | 微博@花仲马

     关注后阅读:

▷ 我上班又不是为了梦想,还不是因为穷

▷ 我们遵守道德,不是为了给你“行个方便”

▷ 在窘迫的青春里,遇不上最好的我们

▷ 对不起,找我写文章,请付稿费好吗?

▷ 去大城市追逐梦想,还是留在小城市享受安逸?

640?wx_fmt=jpeg

白米粥|yiwanbaimizhou

640?wx_fmt=jpeg

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值