在2013 美国计算器图形学年会(SigGraph 2013)上, WebGL成主角

1996年,我从法国来到加利福尼亚加入硅谷图形公司(Silicon Graphics )的IRIS Performer团队。如今,作为一名Performer BOF(Birdsof a Feather)小组成员在SigGraph上发言是我职业生涯中最值得纪念的时刻。在Performer BOF期间,我们谈论了添加至SDK的新特性和HW(硬件)启用功能,并演示了原型现在的功能。IRIS Performer让开发者能够利用多CPU、多GPU创建实时3D应用甚至是多工作站。让开发者通过获得对复杂工作站的控制进行创新,而且,可对一系列硬件进行移植也是Performer的优势所在。这就创建了一个充满能量和新想法的活跃社区。在BOF期间,我们可以感受到创造性的力量在支撑着各自的项目,设想新特性的不同用法-大多数的时间是在研究未曾想过的用法。


自从有幸经历了在硅谷图形公司的开心日子后,我一直被创建软件工具和APIs所激励,从而让3D制图人员和开发者能够更好地制作他们以前未曾设想的交互式游戏/微软虚拟地球(VirtualEarth)/城市。但我很少再能感受到之前在IRIS Performer BOF时那种无处不在的能量和热情。


SigGraph 2013WebGL™ BOF 一定具有我在硅谷图形公司时所期待的那种能量和充满活力的社区,但据我了解比较少。WebGL是一种启用程序,可为web开发者使用和控制图形处理器以开发3D交互式内容,如IRIS Performer多年之前一样,没有这个启用程序,这一切都不可能实现。但我们还有许多工作要做。WebGL是使一个新的3D图形时代变为可能的根本基础,但我们还要开发很多软件,以便于Performer或今天流行的Unity3D类似的工具可在web浏览器中使用,并为几百万人提供工具来创造他们意想不到的东西。


虽然在一个旁观者看来, WebGL最近才出现就实现了突飞猛进,但我可以向你保证,SigGraph 2013期间WebGL表现出的实力是开发人员持续努力的结果(还记得Canvas3D吗?)。但过程并不是一帆风顺,尤其是两年前微软因为安全风险而提出了对WebGL的担忧。毫无疑问,安全是一项技术大规模应用于Web中的一个主要担忧。这是计算机历史上HW加速3D图形首次如此大规模地应用。WebGL的工作组对那些问题非常重视,并且也在努力解决该等安全问题。这些努力使得微软决定将WebGL嵌入IE11,他们在WebGLBOF期间已经对此进行了演示。微软很快便在Windows 7中发布了IE11预览版。


开发图形API的一个重要方面是对API的一致性进行测试。 任何人可在线进行WebGL一致性测试以检查他们的硬件/操作系统/浏览器配置。这些测试非常重要,原因是不仅这确保了最终用户将获得预期的体验,而且许多测试特别针对安全问题。IE11尚未最终确定,因此它还未能够通过所有的测试,也不能运行复杂的游戏引擎,如Turbulenz。人们只能希望在IE11发布前,这些问题都能够解决。值得注意的是,AMD正在利用WebGL的一致性测试来测试AMD驱动程序。


BOF期间演示了许多web应用。事实上,BOF只是展示一系列在web浏览器的GPU加速中获得的成果。然而,我们不应忘记技术成功的一个重要因素,即技术不仅仅是用于先进的演示,而且还可用于商业。从展厅中许多展位都实现了WebGL应用来看,我认为WebGL已经在SigGraph2013实现了这一里程碑。


- Verold演示了Verold studio,这种协作式3D工具可让艺术家无论身处何地都能审核资源。Verold还演示他们一个WebGL加强的网页,这是他们为支持Swappz Interactive 公司发布忍者神龟游戏而创建的网页。Verold可以直接将3D资源用于游戏中放到网页上。


- Sketchfab宣布了对其web服务的几个加强特性以将交互式3D物体嵌入web中。他们还添加了几个常用建模工具的集成,以及人性化接口装置(HID)如Leap Motion和魔幻手Space Navigator。他们还将一个非常好的雕刻工具(SculptGL)与他们的应用集成在一起。


- Cesium是一种开源虚拟地球,在此次活动中获得的曝光率较高,包括在AMD展位上。Cesium由AGI(美国AnalyticalGraphics公司)开发,该公司是航天业commercial off-the-shelf (“COTS”)软件解决方案的领先供应商。由于我本人也参与开发了大受欢迎的谷歌地球,我对于可使用网页浏览器欣赏地球的立体美而感到兴奋。Cesium可使应用开发者将其自己的内容添加至地球上,如Dioarama- 一种用GPS录制的交互式3D活动演示-由澳大利亚NICTA 研究中心的一个团队演示。


Exocortex –展示了他们的新产品:clara.io。这个产品只是运行于网页浏览器内的一个建模程序包。无需安装软件,也无需担心丢失/存储本地模型。恕我直言,此工具是WebGL启用工具中的最有趣的开发之一,因为它使网页浏览器从在云上浏览网页内容变成了一个创建工具。试想想这具有多大的颠覆性。该产品获得了极大利益,以致他们不得不通过推出内测版来限制使用,以提供最好的体验。现在他们正逐渐向成千上万的高要求用户扩大网页应用,以确保产品获得成功。


Lagoa –在SigGraph上有一个大展位,他们提供在云上的交互式拟真3D渲染。他们不是第一次参加SigGraph,去年他们叫TeamUp,在AMD展位展示了他们的产品。Lagoa利用WebGL提供交互式3D场景剪辑,同时在服务器上并行完成拟真渲染。


文章最后,我提一下在开发中的新技术。Mozilla刚刚推出了基于OpenGL ES 3.0规范的WebGL2的实验原型,可用于Aura builds中。COLLADA(3D资源交换XML schema的ISO标准)工作组正在glTF上努力-这是一种加速3D资源传输的“传输格式”,方法是通过减小尺寸及模拟WebGL/OpenGL使用的数据格式来简化在web应用的集成。最后,rest3d是一个http API,它的目标是提供内容处理服务,让在日益增加的客户端设备上使用内容变得更加轻松。我们都期待使用这些日益增加的(但非常零散)客户端设备与3D内容实现交互。Rest3d是任何人都可用于实验或在AMD Github门户网站投稿的一个开源项目。


Rémi Arnaud博士是AMD的软件工程师和网页浏览器技术专家。他发表的文章仅代表其个人观点,并不代表AMD的立场、策略或观点。第三方站点的链接或提到的第三方商标仅供方便说明。除非明确规定,AMD不对此类链接的内容负责,且未默示AMD或其产品的任何第三方认可。WebGL和WebGL标志为Khronos集团公司的商标。


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组,一个生器和一个判别器,它们相互竞争,生器生数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组,一个生器和一个判别器,它们相互竞争,生器生数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值