利用codova框架加H5完成拍摄照片并且上传至服务端

利用codova框架加H5完成拍摄照片并且上传至服务端

因为H5平台的各种便利性,工业级安卓手机等的性价比(较好),很多企业在选用PDA作为员工使用的手持终端设备
然而企业里的做普通运维的IT团队要开发一个自用的安卓APP,难度是非常大的,因此我们采用codova框架做为基础,用JAVASCRIPT去调用一些功能,发现非常方便,目前已经实现的功能有:
一:集成ERP登陆

二:调用工业级红外扫描头扫描一维,二维码

三:调用普通手机摄像头扫描二维码

四:调用普通手机拍摄照片,上传至服务端

五:检测内外网访问,自动切换服务器地址

 

今天先介绍一下这个拍摄照再上传片的开发流程

为了完成这个程序,前后花了大概2个星期(因为本人也不是资深的APP开发人员,然后网上的各种教程,例子,都是参次不齐,对于使用者的要求极高)

1: 准备好CODOVA开发环境

2: 把调用摄像头且拍摄照片的这个插件功能集成到APP里面去, 要下载最新的版本(因为7.0及以后的手机,在存储权限方面完全不同)

3:  配置好H5接口 (就是用javascrip来调用拍摄照片的插件, 返回照片的base64编码)

4: 处理照片上传的服务端 , 接收照片的base64编码,及其他照片有关的信息, 把base64字符串转成流信息,然后用FTP上传,返回上传成功的文件名.

5:接收到上传结果,提示用户

6:处理好前端UI,即各种按钮的出现节点,该出现的时候就出现, 不该出现的时候隐藏.

项目期间研究了CODOVA的JAVASCRIPT插件机制,注册机制,等,觉得对大型多人合作的项目,非常有用

期中过程非常艰辛,需要源代码的请在评论区留下联系方式. 

后续再分享其中的原理研究及其他项目的心得.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以通过TensorFlow的tf.quantization.QuantizeConfig类来实现h5模型量化为uint8类型的模型,具体步骤如下:1. 将h5模型转换为TensorFlow SavedModel格式;2. 使用tf.quantization.quantize_model()函数对模型进行量化;3. 使用tf.quantization.QuantizeConfig类将量化后的模型转换为uint8类型。 ### 回答2: 要将h5模型量化为uint8类型的模型,我们可以使用TensorFlow框架完成。下面是具体的步骤: 1. 导入所需的库: ```python import tensorflow as tf import tensorflow_model_optimization as tfmot ``` 2. h5模型: ```python model = tf.keras.models.load_model('model.h5') ``` 3. 创建一个量化配置: ```python quantize_config = tfmot.quantization.keras.DefaultQuantizationConfig() ``` 4. 将模型应用量化配置: ```python quantized_model = tfmot.quantization.keras.quantize_model(model, quantize_config) ``` 这将通过将权重转换为对称量化来量化模型。 5. 编译量化后的模型: ```python quantized_model.compile(...) ``` 6. 对训练数据进行准备: ```python train_dataset = ... train_dataset = train_dataset.batch(...) ``` 7. 使用准备好的训练数据对量化模型进行训练: ```python quantized_model.fit(train_dataset) ``` 8. 保存量化后的模型: ```python tf.keras.models.save_model(quantized_model, 'quantized_model_uint8.h5') ``` 通过完成以上步骤,我们可以成功将h5模型量化为uint8类型的模型。这样做可以在一定程度上减小模型的存储空间和推理时的内存占用,同时保持模型的推理准确性。 ### 回答3: 要将h5模型量化为uint8类型的模型,我们可以使用TensorFlow框架中的量化方法。下面是一些步骤: 1. 导入所需的库和模块:首先,我们需要导入TensorFlow库以及其他必要的库和模块。 2. h5模型:使用TensorFlow的API载已经训练好的h5模型。 3. 创建量化模型:使用TensorFlow提供的量化方法,将载的模型转换为量化模型。可以使用TensorFlow的`quantize_model`函数来实现。 4. 构建输入数据:为了量化过程,我们需要准备一些输入数据用于模型的推理。 5. 开始量化:通过调用量化模型的`quantize`方法,将输入数据量化为uint8类型的模型。 6. 保存量化模型:将量化后的模型保存为文件,以备后续使用。 以下是一个示例代码,用于展示如何使用TensorFlow框架h5模型量化为uint8类型的模型: ``` import tensorflow as tf from tensorflow import keras from tensorflow.keras.models import load_model # Step 1: 导入所需的库和模块 # Step 2: h5模型 model = load_model('model.h5') # Step 3: 创建量化模型 quantized_model = tf.quantization.quantize_model(model) # Step 4: 构建输入数据 input_data = tf.random.normal([1, 224, 224, 3]) # Step 5: 开始量化 quantized_model.quantize(input_data) # Step 6: 保存量化模型 quantized_model.save('quantized_model_uint8.h5') ``` 通过以上步骤,我们就可以使用TensorFlow框架h5模型量化为uint8类型的模型。注意,量化模型的文件名可以是任意的,根据实际需要进行命名。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值