商务英语学计算机吗,BEC商务英语

前有微软、后有谷歌,外有脸谱网、内有开心网,信息时代下,计算机技术从来不缺一夜暴富的神话,以至于这个专业成为青年学子趋之若鹜的专业。可是计算机到底学什么?懒惰的老美喜欢用缩写,诸如CS、CSE、EE等计算机专业里的字母代号是否把你搞晕?本文想做一些普及。

计算机专业全称“计算机科学与技术”,这是一门研究计算机系统、软件设计的计算机理论和应用的学科。在美国,计算机科学与技术专业分为计算机科学(简称CS)和计算机工程(简称CE或CSE)两大方向,CS偏重理论、算法和高级语言设计,CE侧重硬件和底层软件或协议设计,通常设立在电子系(简称EE)下。

打个轻松的比方,如果说CS是在研究写作和文学创作的话,CE则是研究怎么制造出合适的笔和纸。

计算机专业的“标配”与“例外”

【计算机专业具有广泛的应用领域,具备数学、电子、自动化等交叉学科背景知识极为必要。如果说这是“标配”,那么不按常理出牌的老美也允许“例外”——新东方董事王强就凭借“计算机语音和人类语言都是语言”的论断,从英语语言专业转到计算机专业。】

要研究计算机科学,先要有先进的计算机,之前提到的计算机工程(CE)就是为此而设立。从代表二进制中0和1的高低电平,到存储信息的记忆晶体;从I/O端口的读写操作,到无线连接的通信协议,这些与硬件性能相关的细节,都在CE专业的考虑范畴。不难理解,CE专业的申请者需具备扎实的电子电路基础和一定的动手能力。当然,这不意味着CE只关心纯“硬件”,应该说CE专业是沟通软件和硬件的桥梁,游走于电路、协议和应用软件之间,为高层的算法研究提供可靠、稳定、高效的平台。

与之对应的计算机科学(CS)重点解决偏理论、宏观和方法论的命题,比如计算机程序能做到什么、做不到什么(哲学和数学问题)、程序的效率(算法和复杂性理论)、数据存储或计算的类型和结构(数据库,数据结构);人工智能(AI)、人如何与计算机沟通(人机交互)等。CS专业的学习和研究大量使用数学,尤其是离散数学的知识,这要求学生具有相当的逻辑思维能力,以应付算法设计和编写软件时面临的挑战。中国学生由于擅长数学,逻辑清晰,在CS申请方面具有传统优势。

总的来说,由于计算机具有广泛的应用领域,交叉学科背景知识极为必要。这些学科包括数学、电子、自动化等专业,也正因如此,工科专业本科生是美国计算机专业国际招生重点考虑的生源。

专业排名靠前的学校不一定是“最好的”

【好不好,是对自身而言!曾有学生拿到卡耐基梅隆大学、哥伦比亚大学、华盛顿大学、密歇根安娜堡分校的计算机专业的录取通知。按惯例,他应该选计算机专业全美第一的卡耐基梅隆,但他选了哥大——因为他的目标是进入投行计算机岗位,而哥大地处纽约,投行多。】

如何挑选不同院校的计算机专业?需要考虑三方面因素:1,个人兴趣;2,个人经历;3,学习目的和最终目标。

首先,兴趣是最好的老师,这无须多言。问题是,不少人根本不知道自己兴趣在哪里!在西方高教体制下,学生可以旁听各专业课程、随时调整研究方向,直到大学高年级再确定专业,找到自己的兴趣点。考虑出国的学生应充分利用这一体制优势,提前从学长、老师处了解专业研究的内容、相关课程,确定未来研究方向。

第二,关于自身条件。留学申请是学校和学生间的双向选择,所以,正确评估自身条件是进入理想专业的前提。常规来说,英语水平(托福成绩)和入学考试成绩(SAT或GRE)是选择不同档次学校的重要指标。此外,是否从事过相关研究、是否发表相关文章、是否有业内名人的推荐,都将影响目标专业录取与否。

当然,如果你从来没有学习或从事过相应专业,或者成果成绩平平,也未必无法进入梦想专业。美国学校常常会看中一些我们觉得不起眼的经历,比如申请计算机专业时,他们会注意你是否有良好的写作水平、是否注意材料细节,甚至是否拥有音乐、美术特长。同学们如果拓宽申请思路,可能会出奇制胜。

第三,学生在选择专业时不仅要考虑个人兴趣,也要预想就业、生活方式等外围因素。因为大部分情况下,学生选择计算机专业并不是以此学习状态作为终极目标,这只是实现人生更大理想的手段。针对不同的目标,选择学校和专业的策略也会有所不同。

笔者曾认识这样一个学生,本科学主修软件工程专业,大四时拿到卡耐基梅隆大学、哥伦比亚大学、华盛顿大学以及密歇根安娜堡分校的4份计算机专业硕士录取通知。按理说,他应该选择全美计算机排名第一个卡耐基梅隆大学,可是这位同学选了哥大,因为他的就业目标是投资银行的计算机相关工作,其他大学周围投资银行的实习工作机会远没有哥伦比亚大学多。换个角度,假设那位学生希望毕业后从事计算机专业的研究,那么卡耐基梅隆大学无疑是优选。

深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值