![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
飞桨
文章平均质量分 80
百度_开发者中心
这个作者很懒,什么都没留下…
展开
-
百度智能云将在3月27日发布系列文心一言云服务和应用产品
百度智能云将在3月27日举行新品发布会,发布系列文心一言云服务和应用产品。原创 2023-03-23 11:40:01 · 132 阅读 · 0 评论 -
带你了解『百度智能云发布云智一体的AI开发全栈模式』
在“云智一体”的独家优势下,百度智能云为企业的 AI 开发打开了更多可能。3月27日,百度智能云2021云智技术论坛首场活动在京举行,重磅发布“云智一体的 AI 开发全栈模式”,基于百度全球领先的 AI 技术和生态优势,AI 原生的云基础设施与 AI 开发融合一体,为企业提供满足实际业务场景需求的、低成本高效率、全流程 AI 开发支持的全栈解决方案,加速产业智能化升级。百度集团副总裁、深度学习技术及应用国家工程实验室副主任吴甜在开场致辞中讲到,深度学习将人工智能进一步推进到与产业场景广泛结合的新阶段,百原创 2021-03-31 11:35:30 · 416 阅读 · 0 评论 -
飞桨框架2.0正式版重磅发布,一次端到端的“基础设施”革新
在人工智能时代,深度学习框架下接芯片,上承各种应用,是“智能时代的操作系统”。近期,我国首个自主研发、功能完备、开源开放的产业级深度学习框架飞桨发布了2.0正式版,实现了一次跨时代的升级。**这次2.0版本的发布对于飞桨来说,可以说是一次“基础设施”的全面更新换代!**生活中,我们看到过很多基础设施建设工程,例如西电东送、南水北调、高铁建设等等,这些在保证生产生活设施正常运行、推动整个社会的经济发展和人们生活水平改善的过程中,以一种 “润物细无声”的形式扮演着关键基础性角色!此次飞桨升级就是以这样方式悄然原创 2021-03-16 15:55:00 · 108 阅读 · 0 评论 -
当CV遇上联邦学习,一起聊聊视觉联邦技术
深度学习算法的创新、高性能计算能力的提升以及移动互联网时代数据的增长带来了计算机视觉技术与落地应用的爆发性增长,而高速发展之后,人们对数据安全与隐私保护的担忧也逐渐浮现。联邦学习允许用户在将数据保留在本地端不共享的前提下形成一个联合体训练得到全局模型,从而有效解决数据隐私和安全保护问题。但对于大多数计算机视觉应用开发者来说,他们需要一个易于使用的工具让他们可以方便地在他们的系统中应用联邦学习。百度飞桨团队与微众银行联邦学习团队合作的 FedVision 是一个不错的选择。FedVision 是首个轻量原创 2021-03-11 11:38:54 · 523 阅读 · 2 评论 -
BML CodeLab重磅更新:在Windows上可原生Linux AI开发
自从微软发布 WSL2(Windows Subsystem for Linux 2)之后,机器学习开发者、数据科学家就可以在 Windows 上做原生 Linux 开发了。但想正常的使用,其实并不简单:安装 WSL2,操作步骤太多,还会遇上各种错误。好不容易安装好 WSL2,安装 JupyterLab 时又遇上了“无法自动打开浏览器”,即使打开了也会出现“找不到文件”的问题。安装 docker 后,启动容器时,还会遇上主机无法访问问题。百度 BML CodeLab 是一款专为国内机器学习开发者原创 2021-02-09 14:08:55 · 587 阅读 · 0 评论 -
百度飞桨和Imagination宣布在全球AI生态系统方面开展合作
2021年2月1日 —Imagination Technologies宣布:在 Imagination 和百度飞桨(PaddlePaddle)的合作中,其 IMGDNN API 已集成到 Paddle Lite 中,丰富了全球开发者发展人工智能(AI)的生态系统。Paddle Lite 是百度深度学习框架的轻量化推理引擎,IMGDNN API 使开发人员能够针对基于 PowerVR 架构的图形处理单元(GPU)和神经网络加速器(NNA)实现应用程序的最大性能。此举增加了 Imagi..原创 2021-02-03 16:32:28 · 145 阅读 · 0 评论 -
飞桨框架2.0RC新增模型保存、加载方案,与用户场景完美匹配,更全面、更易用
通过一段时间系统的课程学习,算法攻城狮张同学对于飞桨框架的使用越来越顺手,于是他打算在企业内尝试使用飞桨进行AI产业落地。但是AI产业落地并不是分秒钟的事情,除了专业技能过硬,熟悉飞桨的使用外,在落地过程中还会遇到很多细节的问题。这不,他就想到了两个棘手的小问题:· 企业的数据集都比较大,使用这种大规模数据集进行模型训练的耗时会很长,往往需要持续数天甚至更长时间。这种情况下,就需要多次保存模型训练的参数,避免由于训练意外中断而前功尽弃。模型训练至收敛后,需要将模型及参数保存下来,用于后续在服务器或原创 2021-01-22 16:26:43 · 1305 阅读 · 0 评论