cuda无法在电脑上运行_多个开源软件无法在 Apple M1 上正常运行

15711c314e0428b5206af91f60996d64.png

喜欢就关注我们吧!

昨天我们报道了“Apple M1 芯片不支持 Docker?”的事件,Docker 的回应是正在努力适配。实际上不止是 Docker,许多开源软件和商业软件都无法在 Apple M1 上正常运行。

苹果上周发布了首批采用“Apple Silicon” M1 芯片的 Mac 新机,虽然苹果为没有 ARM 版本的软件提供 Rosetta 2 仿真层,模拟 x86_64 指令,但这种方式并不能保证性能和速度。Electron 项目的维护者之一 Samuel Attard 就建议最好是构建 ARM64 二进制版本,因为尽管 x86_64 Electron 应用程序可在 Rosetta 2 下运行,但“性能将大大降低”。

不过为了尽快适配,苹果早已开始支持工作。7 月份就有工程师 @wongmjane 透露,苹果正在为 30 个软件构建 Apple Silicon Mac 支持,包括 Node,Python 3,Go,V8 等等。

8ac77e33468b1f6e135709212e633ed5.png

目前已经可以在 M1 上运行的有 Chrome,Electron 等。周二谷歌发布了带有 Apple Silicon 支持的 Chrome 87。11 月 19 日发布的 Electron 12.0.0 也增加了 Apple Silicon 支持。Rust 团队提供了一个 tier-2 交叉编译器,可输出在 M1 上运行的本地 ARM 代码。

1f97cf13495fbb6bea3bc993f5948fd1.png

但还有很多软件未完成 M1 支持。

Go 团队在日前庆祝 11 周年的公告中透露,明年 2 月发布的 Go 1.16 中,会加入 Apple Silicon(GOARCH=arm64)Mac 的支持。

VS code 计划在本月底进行基于 ARM 64 的通用构建。微软发布的 Mac Office 2019 测试类通用版本,虽包含 x86_64 和 ARM64 二进制文件,但 Office 还没有一个基于 ARM64 的通用版本。

Oracle 一直未决定是否将其开源的 x86 虚拟机 VirtualBox 移植到 M1。

macOS 软件包管理器 Homebrew 仍未过渡到 Apple Silicon。OpenJDK 中包括 Gradle,Maven 和 Jenkins 在内的大约十二种软件包同样不支持 Apple Silicon。

GCC 编译器也尚未有 Apple Silicon 支持。R 语言证实,该语言可以在仿真环境下运行,但是因为 R 依赖 Fortran 90 编译器,Fortran 90 还不能用于 Apple Silicon,所以 R 不能在 Apple Silicon 上本地运行。R 核心团队成员 Tomas Kalibera 和 Simon Urbanek 月初透露,Apple Silicon 的可用 Fortran 90 有望在不久后面世……而对于任何科学计算工作,都迫切需要这种编译器的支持。

▼ 往期精彩回顾 ▼

适兕:成为开源布道师

Apple M1芯片不支持Docker?

开发者的胜利:GitHub 恢复了 youtube-dl 库

Big Sur or Bug Sur?旧款MBP升级后变砖

macOS Big Sur正式版发布,支持原生运行iOS App

453e7b3515db0a8de8660226d771f91f.gif

63fa9500b31fc230d4764c4e3cb2d259.png觉得不错,请点个在看呀

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CUDA是一种并行计算平台和编程模型,它可以利用显卡的并行计算能力完成高性能计算任务。宿主机是指运行操作系统的主机机器,通常指的是一台普通电脑或服务器。 要在宿主机上运行容器,首先需要安装并配置支持CUDA的驱动程序和CUDA工具包。这些驱动程序和工具包可以使宿主机能够与显卡进行通信并利用其并行计算能力。安装完驱动程序和工具包后,宿主机就可以使用CUDA编程模型进行高性能计算。 当容器被创建并运行时,它可以访问宿主机上已安装的CUDA驱动程序和工具包。容器内的应用程序可以通过CUDA API调用在宿主机上执行并行计算任务。CUDA运行时会将这些任务分发给显卡处理,并将结果返回给容器内的应用程序。这样,容器内的应用程序就能够充分利用显卡的并行计算能力,提升计算性能。 在宿主机上运行CUDA容器可以提供许多好处。首先,使用容器可以将应用程序、相关的库和依赖文件以及CUDA驱动程序和工具包等一起打包,便于部署和迁移。其次,容器可以实现资源隔离,确保每个容器在运行时只能使用特定的显卡资源,避免资源冲突。此外,容器还提供了方便的管理和监控功能,可以在宿主机上方便地启动、停止和管理多个运行CUDA容器的实例。 总而言之,通过在宿主机上运行容器,并结合CUDA编程模型,可以充分利用显卡的并行计算能力,提升计算性能和效率。这对于需要进行大规模、高性能计算的应用程序来说具有重要意义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值