微信小程序爬坑日记

新公司上手小程序。
30天,从入门到现在,还没放弃。。。

虽然小程序发布出来快一年了,爬坑的兄弟们大多把坑都踩平了。而我一直停留在“Hello World”的学习阶段。
一来没项目,只有项目才是实践学习的根本;
二来刚出来,总是有很多坑。爬坑总是痛并快乐着。

再多的借口,产品项目需求拍在桌前,都得缴械投降。
不要怂撸起袖子,就是干。

初识小程序

微信推出小程序,想要实现即开即用,用完即走的用户体验。免去APP下载安装繁琐的流程。听起来像谷歌推出的PWA,不过PWA普及到国内还有段时间。而小程序借助于微信的用户群体,植入成本低,容易被用户接受。

小程序的代码风格跟Vue其实挺像,对于习惯Vue开发模式的同学,上手并没有太大的问题。

小程序不支持前端主流框架,如Vue,Angular,React,jQuery等,而且小程序有自己的一套视图容器(Dom)的写法,跟平常我们在web上写HTML不一样。不过CSS3那些变化不大。虽然文件名改成了(.wxss)

本司项目,使用webpack做打包工具,将代码编译成符合小程序的代码目录规范,采用wechat-mina-loader插件,实际开发起来跟在Vue下开发习惯一样。
babel完成ES6转ES5,sass编译,压缩转化等工作都放到webpack中去做。

不支持dom操作

小程序脚本内不能使用window,document对象,所以无法操作dom。如果想操作节点,可用wx.createSelectorQuery()

另外数据驱动的开发模式,跟Vue相同,只是写法换了(vue: v-if,小程序: wx:if)

rpx布局

rpx(responsive pixel): 可以根据屏幕宽度进行自适应。规定屏幕宽为750rpx。如在 iPhone6 上,屏幕宽度为375px,共有750个物理像素,则750rpx = 375px = 750物理像素,1rpx = 0.5px = 1物理像素。

设计师做设计图以iPhone6作为设计稿基准就可以,基本上可以用rpx替换px,不过在一些表单或者提示页面,使用设计稿上的rpx会让小屏幕手机看着尺寸略小,提示页面可参照weui用px来实现

路由层级

  • wx.navigateTo(OBJECT)

保留当前页面,跳转到应用内的某个页面,使用wx.navigateBack可以返回到原页面

  • wx.redirctTo(OBJECT)

关闭当前页面,跳转到应用内的某个页面

  • wx.switchTab(OBJECT)

跳转到 tabBar 页面,并关闭其他所有非 tabBar 页面

  • wx.reLaunch(OBJECT)

关闭所有页面,打开到应用内的某个页面

小程序只能同时打开打开5个页面,当打开5个页面后,wx.navigateTo不能正常打开新页面,请避免多层级的交互方式,或者使用wx.redirctTo重定向

tabBar底部导航栏

tabBar是一个数组。配置最少2个,最多5个,tab数组按顺序排序

页面滚动到顶部

基础库1.4.0支持

wx.pageScrollTo({
  scrollTop: 0 //滚动到页面的目标位置(单位px) })

图片资源,CSS中的背景图片

CSS中无法使用本地资源(开发目录中)的图片作为background-image。可以使用网络图片资源,或base64,或者使用image标签。tabBar的icon资源可使用本地资源

unionid与openid的区别

每个用户在每个小程序里面都有唯一的openid,如果想在多个公众号,小程序里面共享用户信息,统一识别该用户,则需要用到unionid。为了获取uniond则需要注册微信开放平台,将需要共享的小程序,公众号进行绑定(不超过10个,超过10个还要申请认证称为第三发平台)。

textarea在滚动页面中的bug

textarea,map等组件是由客户端创建的原生组件,它的层级是最高的。如果有遇到定位元素的话。永远在最上面,盖不住。

  • 请勿在 scroll-view、swiper、picker-view、movable-view 中使用 textarea 组件
  • CSS动画对textarea无效

项目场景:页面底部固定了一个按钮(position:fixed), 页面滚动时,textarea总是在按钮上面,点击按钮就点到了textarea

可以设置网络请求的超时时间

app.js中配置

"networkTimeout": {
  "request": 10000 // 10秒
}

 

window配置

navigationBarTextStyle 导航栏标题颜色仅支持black/white
状态栏,导航条,标题,窗口背景色支持纯色,不支持渐变色

参数问题

  • url中添加参数,url?a=1&b=2onLoad(options) options.query.a, options.query.b可获取到
  • 扫描小程序码进页面,如果想获取小程序码url中所带的参数,可通过options.scene获取,不过需要对二维码中的scene值进行转换 decodeURIComponent(options.scene), 调试阶段可以使用开发工具的条件编译自定义参数 scene=xxxx 进行模拟,开发工具模拟时的 scene 的参数值需要进行 urlencode (启动参数:scene=n%3D1001) 实际为 scene=n=1001,参数n=1001

image标签图片

image默认width: 300px, height: 225px, lazy-load懒加载只对page与scroll-view下的image有效
mode缩放模式,mode="widthFix"比较常用(宽度不变,高度自动变化,保持原图宽高比不变)

小程序可以监听小程序的关闭后,但是无法阻断

场景:想在小程序退出时弹出个提示框,并阻止关闭(暂时无法实现)

小程序码

小程序码(葵花码)有几种方式,只有发布过小程序才可正常显示小程序码

小程序第一次提交的审核时间较后面的长

第一次提交审核一般1天到2天。所以为了能准点上线,建议先上一次临时的版本(放一个提示页面都可以),过了第一次审核发布再说。日常提交审核,2-3小时就可以。

频繁地setData会造成性能问题

频繁地setData操作,会出现卡顿,操作反馈延迟严重,甚至有可能闪退。

场景:原计划用countUp做数字动画,原理就是频繁地改变数字值,setData操作,渲染到模版上。

ES6转ES5,小程序检测目录中的js文件(极少)

项目中用了webpack进行ES6转ES5,所以关闭了微信小程序的ES6转ES5功能。这个坑就比较隐蔽了,测试的时候在5S真机上报js错误,发现有个js(使用了ES6,没有转ES5)文件没有使用,微信小程序会去检测目录中的js文件,如果关闭了微信自带的ES6转ES5,检测到目录中js文件不兼容ES5,就报错。这个Bug只在5S真机里出现过,5C都正常。如果开启了微信开发工具中的ES6转ES5,则会自动帮你完成转化工作,不会出现类似问题。

分享些小程序开发比较常用的第三方库

作者:以乐之名
本文原创,有不当的地方欢迎指出。转载请指明出处。

转载于:https://www.cnblogs.com/kenz520/p/8004251.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值