(4.3.2.20)在activity中的子线程中startActivity异常dispatchCancelPendingInputEvents()' on a null object referen

Exception: Attempt to invoke virtual method 'void android.view.View.dispatchCancelPendingInputEvents()' on a null object reference
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.ViewGroup.dispatchCancelPendingInputEvents(ViewGroup.java:3523)
android.view.View.cancelPendingInputEvents(View.java:13503)
android.app.Activity.startActivityForResult(Activity.java:3801)
android.app.Activity.startActivityForResult(Activity.java:3740)
android.app.Activity.startActivity(Activity.java:4050)
android.app.Activity.startActivity(Activity.java:4018)
com.trustmobi.mixin.app.ui.base.BaseActivityMessage.checkGuestLock(BaseActivityMessage.java:375)
com.trustmobi.mixin.app.ui.base.BaseActivityMessage$1.run(BaseActivityMessage.java:311)
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1112)
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:587)
java.lang.Thread.run(Thread.java:818)

底层的源码,系统底层会已主线程的方式启动activity的,而且我的这个清楚只是偶尔出现这个问题,一般都能够正确执行的

但还是建议

  • 用 handler 处理线程结束后的操作 跳转界面的操作要求放在主线程里面的
  • runOnUiThread
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在每个线程创建独立的 CUDA Context,可以按照以下步骤操作: 1. 在每个线程使用 `torch.cuda.set_device()` 方法设置正确的 GPU 设备。这将确保每个线程使用不同的 GPU。 示例代码: ```python import torch def thread_function(device_id): torch.cuda.set_device(device_id) # 在这里执行与 GPU 相关的计算任务 if __name__ == "__main__": # 创建多个线程并分配不同的 GPU 设备 device_ids = [0, 1, 2, 3] threads = [] for device_id in device_ids: t = threading.Thread(target=thread_function, args=(device_id,)) threads.append(t) t.start() # 等待所有线程完成 for t in threads: t.join() ``` 2. 在每个线程,在设置 GPU 设备之后,确保执行与 CUDA 相关的操作,比如创建 PyTorch 的张量或模型等。这将在每个线程创建独立的 CUDA Context。 示例代码: ```python import torch def thread_function(device_id): torch.cuda.set_device(device_id) # 创建独立的 CUDA Context torch.tensor([1.0]).cuda() # 在这里执行与 GPU 相关的计算任务 if __name__ == "__main__": # 创建多个线程并分配不同的 GPU 设备 device_ids = [0, 1, 2, 3] threads = [] for device_id in device_ids: t = threading.Thread(target=thread_function, args=(device_id,)) threads.append(t) t.start() # 等待所有线程完成 for t in threads: t.join() ``` 通过在每个线程按照上述步骤设置正确的 GPU 设备并创建独立的 CUDA Context,可以确保每个线程使用不同的 GPU,并且在每个 GPU 上都创建了独立的 CUDA Context。这样可以使得每个线程在自己的 GPU 上独立运行,避免了多线程之间的冲突和竞争条件。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值