Tensorflow.js入门之mobilenet

tfjs入门之mobilenet

mobilenet.html

<!doctype html>
<html lang="en">
<head>
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs-core@1.2.7/dist/tf-core.min.js"></script>
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs-converter@1.2.7/dist/tf-converter.min.js"></script>
</head>
<body>
  <script>
//const modelUrl = 'http://localhost:1111/mobilenet_model.json'
const modelUrl ='https://storage.googleapis.com/tfjs-models/savedmodel/mobilenet_v2_1.0_224/model.json';	
async function fun(){
    const model = await tf.loadGraphModel(modelUrl);
    const zeros = tf.zeros([1, 224, 224, 3]);
	model.predict(zeros).print();
}
fun()
  </script>
</body>
</html>

在浏览器打开,按F12
在这里插入图片描述
说一说遇到的坑:
(1)指定tfjs-core和tfjs-converter版本问题,此处为1.2.7(两者版本是否需一致尚不明确),否则可能会遇到找不到函数等各种bug。
具体tfjs-core版本等信息可以参见https://cdn.jsdelivr.net/
查询方法见 这里
(2)加载本地模型时的跨域问题,解决方案见 这里

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Tensorflow.js是由Google开发的一个用于在浏览器和Node.js中进行机器学习的JavaScript库。它允许开发者使用JavaScript代码来构建、训练和部署机器学习模型,并且可以在各种设备上运行,例如智能手机、平板电脑和计算机。 MobileNet是一种轻量级的卷积神经网络模型,主要用于进行图像分类和对象检测等任务。它的设计目标是在保持较低模型参数和内存使用的同时,能够在移动设备上较为高效地运行。MobileNet将标准卷积操作替换为深度可分离卷积操作,从而减少了计算和参数量。 Tensorflow.js可以通过加载已经训练好的MobileNet模型来进行图像分类任务。只需使用一行代码,我们就可以将MobileNet模型加载到Tensorflow.js中,并通过输入图像,得到预测结果。这使得我们可以通过JavaScript代码在浏览器中进行实时图像分类,而无需依赖于云服务或将图像上传到服务器。 另外,由于Tensorflow.js是基于WebGL实现的,因此它可以利用GPU进行加速,从而提高模型的运行速度。这在移动设备上尤为重要,因为移动设备的计算资源有限。Tensorflow.js还支持模型的转换和优化,以在移动设备上进行更高效的推理。 总而言之,Tensorflow.jsMobileNet的结合使得开发者可以在浏览器中进行实时且高效的图像分类任务。无论是构建移动应用程序还是开发网站,Tensorflow.jsMobileNet都是强大的工具,可以为我们带来更好的用户体验。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值