电大计算机flash期末考试题,电大(精新编版)开放教育计算机网络专业(专科)《flash动画制作》期末复习考试试题及参考答案--2017年度.doc...

电大(精新编版)开放教育计算机网络专业(专科)《flash动画制作》期末复习考试试题及参考答案--2017年度

电大开放教育计算机网络专业(专科)《Flash动画制作》考试试题及参考答案

一、填空题(每空2分共20分)

在创建形状补间动画时,对于某些复杂图形之间的变形,我们需要添加一些_________来辅助动画的变形。

使用 面板可以复制、删除调色板中的颜色,使用 面板可以调整渐变填充和位图填充。

通常Flash只能显示一帧的画面,而利用_________,可以同时显示或编辑多个帧。利用该功能,可以辅助绘制图像,方便动画,特别是逐帧动画的创作。

4、在Flash的三种元件中,可以转换成为组件的是______。

5、在绘制好曲线后,若要对曲线的形状进行调整,可使用______工具。

6、在Flash中,使用“混色器”面板创建渐变色时,最多只能使用______种颜色。

使用代码“this.createTextField("mytxt", 1, 10, 20, 300, 400);”创建一个空文本字段,那么代码中的参数300是指文本字段的_________而参数400是指文本字段的_________。

在Flash中,要对导入库中的声音创建_________,才方便建立行为对它的引用。

二、每小题分,共0分)B.Ctrl + K

C.Alt + T

D.Alt + K

如图所示,要使得蜡烛火苗燃烧时过渡的更为自然,应为“火苗”创建哪种类型的补间动画( )。

A.遮罩动画

B.引导线动画

C.形状补间动画

D.运动补间动画

如图所示,关于该图的制作方法,下列描述错误的是( )。

A.将文本打散后使用图案进行填充

B.通过滤镜来实现该效果

C.使用文本遮罩图片

D.C选项是正确的

以下为在新窗口打开中央广播电视大学网站的代码,其中格式正确的是( )。

A.getURL("", "_blank");

B.getURL("http://www. ", _blank);

C.getURL(http://www. , "_self");

D.getURL"http://www. ", " _parent";

如图所示,若想取消该鼠标跟随效果,解决方法正确的是( )。

A. 双击测试窗口进行卸载

B. 使用stopDrag();语句进行卸载

C. 使用endDrag();语句进行卸载

D. 使用QuitDrag();语句进行卸载

如图所示,要在Flash中把图片的放在花环的相框中,可以用下列哪种方法来实现( )。

A.把图片放在底层,添加一层,在新添加的层上用钢笔勾出一个椭圆,然后做遮罩

B.把图片放在底层,添加一层,在新添加的层上用钢笔勾出一个椭圆,然后设置图层的混合模式

C.把图片放在底层,添加一层,在新添加的层上用钢笔勾出一个椭圆,然后为图层应用滤镜

D.为图片添加滤镜

7.如图所示,图中的两个对象是使用椭圆工具直接绘制而成的,只是使用的绘制模式有所不同,那么其中哪个能直接创建形状补间动画( )。

A、左边的图形 B、右边的图形

C、两个图形都可以 D、两个图形都不可以

8.比较下列两图中对象之间的细微这处,请问哪个有可能直接添加滤镜( )。

A.左图 B.右图

C.两幅图都可以 D.两幅图都不可以

9.以下各种元件中,可以转换成为组件的是(  )。

A.图形元件

B.按钮元件

C.影片剪辑元件

D.以上元件都不可以

10.如图所示,若要将该文本进行分离,需对其打散几次( )。

A.0

B.1

C.2

D.以上说法均不正确

11.如图所示,两个关键桢中的对象都是打散的形状,则两个关键祯之间不适合设置的动画类型是( )。

A.形状补间动画

B.运动补间动画

C.颜色补间动画

D.透明度补间动画

12.如图所示,这是一个外部载入Flash动画。下图是“载入”按钮里的一段代码,通常其中“aa”所指的是( )。

A.一个影片剪辑元件

B.一个按钮元件

C.一个图形元件

D.一个变量

13.下图所示为导入视频时的预览窗口,其中线部分指的是( )。

A.放大该选区

B.缩小该选区

C.对该部分进行裁切

D.对该部分进行修剪

如图所示,单击按钮,可以将橙子进行复制,下列关于该动画的制作,描述错误的是( )。

A.

学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯下降(Gradient Descent)、随机梯下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问
学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯下降(Gradient Descent)、随机梯下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值