计算机绘图基础属于哪一类,第2章计算机绘图基础(简洁版).ppt

第2章计算机绘图基础(简洁版)

* * 2.三角形面积累加法 考虑矢量的方向,取顺时针的顺序,即可得到由顶点坐标计算多边形的面积公式: 当i=n时, 。 * * 引申到闭合曲线求面积 由多边形面积计算引申到闭合曲线求面积的问题,请大家思考。 * * 闭合曲线求面积方法 1.由高等数学曲线积分方法进行面积计算。 2.根据一定微小间隔的曲线上坐标点转化为近似的多边形面积求解问题。 * * 工程体积计算 常用的工程体积计算主要是土石方填挖(转运)体积量计算。 工程体积计算的方法(数学模型)有: 1.(平均)断面法 2.(规则)方格网法 3.(不规则)三角网(TIN)法 4.三维立体模型法 * * 2. 12. 2 断面法计算土石方 (平均)断面法 一般适用于带状的区域,尤其是地形变化平缓,趋势单一的情况 。 * * 断面法计算土石方的基本步骤 (1) 在地形图上根据计算土方的范围,按一定的间隔等分场地,做断面图。 (2) 按设计高程线与地形线围成的区域,分别计算填、挖方断面面积。 (3) 以相邻两同类断面面积(挖方或填方)的平均值,乘以等分的断面间距,得出两相邻断面间挖方(填方)体积。 (4) 将各相邻断面间挖方(填方)量累加,就得到总的挖方(填方)量。 * * 计算机在数字图上实现断面法面积计算步骤 (1) 根据输入的断面方位、间距、计算范围确定断面线。 (2) 按等分间距d,在断面线上运用插值计算方法,计算该断面与地表的切点坐标 (3) 断面面积为各相邻切点与其在设计线上的垂足所围成梯形面积的和: * * 计算机在数字图上实现断面法体积计算步骤(续) (4) 挖方(填方)总量为各相邻断面间挖方(填方)量的累加 注意事项: 填方和挖方要分别计算。 * * 断面法体积计算精确度讨论 1.由于计算面积时要采用高程内插,所以和野外采集地面特征点的位置和密度强烈相关。 2.由于计算面积时采用等分间距的近似梯形面积计算,所以和等分间距的大小有关。 3.由于体积计算公式中有断面间距k,所以和断面间距的大小有关。 * * 2. 12. 3 方格法计算土石方 规则方格网法 不仅可以计算不规则地表与规则平面(斜面)间的体积,还能计算两不规则曲面间的体积,适用于较大区域复杂地表的土石方计算工作。 * * 传统(手工)方格法计算土石方的基本步骤 1.在地面上建立规则的方格网; 2.通过仪器测量或用等高线内插方格网角点的高程; 3.计算方格网角点的设计高程; 4.计算方格网角点的填挖高差; 5.计算方格网的每个方格平均填挖高差; 6.根据方格网每个方格网的填挖面积和平均填挖高差,计算格网填挖体积; 7.分别累加所有填方、挖方的体积。 * * 计算机在数字图上按方格法计算土石方的基本步骤 (1) 在给定的范围内,按一定间隔d生成方格网。 (2) 按插值的数学方法,根据高程数据文件确定方格网中各小方格顶点的高程。 (3) 设按高程数据文件1和数据文件2,分别插值的4个角点高程的平均值为       和       ,则该小方格的土方量为      ,其中数据文件1是原地表的数据文件,数据文件2是设计地表文件或现状地表数据文件 。 * * 计算机在数字图上按方格法计算土石方的基本步骤 (4) 将所有小方格的挖方(填方)数据累加,即得到计算区与总的挖(填)方量 * * 方格法土方量计算精确度讨论 1.由于计算方格角点高程时要采用高程内插,所以和野外采集地面特征点的位置和密度强烈相关。 2.由于计算面积时采用统一的小方格面积计算,所以面积计算没有误差,而方格边长的大小则代表了一定方格区域内高程和方格角点高程的近似程度基本近似一致。 3.注:由于在一个方格内可能有挖也有填,所以这种情况的面积和方格角点高程计算要复杂些。 * * 补充:基于TIN的土方计算 根据野外采集的高程点构成不规则三角网(TIN),面积可求。 地面填挖量转化为求一定平面上三棱柱体、四面体和楔形体的体积量之和。 优点:野外测量高程点直接用来进行面积、高程计算,而不用先内插角点高程。 * * 基于TIN的土方计算(续) 由于TIN的不规则性,需要求以TIN表达的设计表面 如已知设计表面函数,则可将地形表面TIN中的点坐标代入求得; 如设计表面由散点给出,则首先构建设计表面的TIN模型,然后通过插值的方式得到与地形表面一致的三角网。 * * 基于TIN的土方计算(续) 地形表面与设计表面上三角形一一对应,从而形成三棱柱体,但由于其上下表面的高程有所不同,因此三棱柱体的结构有多种,不同结构的棱柱具有不同的体积。 从两三角形的空间关系上可分为五种: 仅有挖方量; 仅有填方量; 两三角形共一边; 两三角形共一顶点; 两三角形相交 其体积可分别按三棱柱体、四面体和楔形体进行计算。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值