bug日记三

22. Android动态添加布局:

1、  由于需求需要动态添加布局 而且 不同的分辨率下显示比例应该正常 所以使用了动态添加view的方式 添加view的addview 时候 如果是rootview 应该使用Fragment去获取layout参数,因为默认都是这个,如果是子view那就看他外面那层包裹的是什么布局,就用对应的布局就可以了 对应的布局可以使用它们对应的属性。

2、   

Bug :'C:\ProgramFiles\Java\jdk1.8.0_40\bin\java.exe'' finished with non-zero exit value 2

在使用beecloud的之后出现这个问题,起初产生了一个问题是微信在beecloud的jar和友盟的微信分享jar冲突,解决之后报了这个错误,在网上查到基本上是因为jar的冲突或者是方法数量超过限制,反复研究发现是因为方法过多造成的,删除了beeclou的相关jar和方法后成功解决

 

 

23. 问题一:
Error:(26, 9) Attribute application@icon value=(@drawable/logo) fromAndroidManifest.xml:26:9
Error:(28, 9) Attribute application@theme value=(@style/ThemeActionBar) fromAndroidManifest.xml:28:9
is also present at XXXX-trunk:XXXXLib:unspecified:15:9 value=(@style/AppTheme)
Suggestion: add 'tools:replace="android:theme"' to<application> element at AndroidManifest.xml:24:5 to override
Error:Execution failed for task ':XXXX:processDebugManifest'.
> Manifest merger failed with multiple errors, see logs

原因:
AS
Gradle插件默认会启用Manifest Merger Tool,若Library项目中也定义了与主项目相同的属性(例如默认生成的android:iconandroid:theme),则此时会合并失败,并报上面的错误。
解决方法有以下2种:
方法1:在Manifest.xmlapplication标签下添加tools:replace="android:icon,android:theme"(多个属性用,隔开,并且记住在manifest根标签上加入xmlns:tools="http://schemas.android.com/tools",否则会找不到namespace哦)
方法2:在build.gradle根标签上加上useOldManifestMerger true (懒人方法)
参考官方介绍:

http://tools.android.com/tech-docs/new-build-system/user-guide/manifest-merger

 

 

本机已有的SDK即可)

 

 

24.提交小米应用市场:反馈

测试的Moneky参数如下,请您在出现问题的机型下进行Monkey参数测试,问题就会复现:

adb shell monkey -v–-throttle 300 –pct-touch 30

–pct-motion 20–pct-nav 20 –pct-majornav 15 –pct-appswitch 5

–pct-anyevent 5–pct-trackball 0 –pct-syskeys 0 -p ‘%s’ 1000

 

 

通过adb抓取og日志

adb shell logcat –c

adb shell logcat –vtime thread >log.log

   然后操作手机日志生成

25.  git相关:

提交文件时有一个文件超出100M超出github限制,之后删除啦还是失败,原因是上次提交的commit没有删除里面还是包含这个文件的提交,所以要删除以前的提交使用命令:首先用git log 显示历史提交的commitid

 

然后git reset –hard commitid,这样就切换到以前的提交!

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值