Facebook将人工智能硬件平台开源

12月11日消息,据国外媒体engadget报道,你可能不会想到Facebook的背后使用了大量的人工智能技术。该公司十分依赖人工智能,使用机器学习来更好的提供新闻排序,分类整理照片和视频内容,甚至读故事或玩游戏。

周四,Facebook公司表示将把公司的人工智能硬件平台Big Sur进行开源。Facebook表示,它马上就会把它的人工智能硬件设计投放到开放计算项目。承诺向该开源社区提供系统设计,特别是完整的人工智能任务创建方法。这种硬件的设计特点是易于维修的主板,带有8个NVIDIA的Tesla M40 GPU。该公司表示, “CPU的散热器,是唯一一个需要用螺丝刀拆卸的东西。”

在一份声明中,该公司表示,“我们希望让人们更方便的进行人工智能的研究,共享工艺和技术。我们认为,这种开放式合作有助于促进未来设计的创新,进一步构建更复杂的AI系统。”(持文)

想了解更多人工智能资讯机器人请登录Giiso智搜: http://www.giiso.com/ 谢谢 

转载于:https://my.oschina.net/rgznzx/blog/1839323

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一些可以个人搭建硬件平台运行的完全开源的大语言模型: 1. GPT-2:这是由OpenAI发布的自回归语言模型,用于生成各种类型的文本。它是目前最先进的自然语言处理模型之一,通过预训练和微调来完成各种任务。GPT-2的预训练模型和微调代码都是完全开源的,任何人都可以使用。 2. GPT-3:这是OpenAI最新发布的自然语言处理模型,可以通过输入文本生成各种类型的输出,例如文章、对话、代码和图像等。尽管GPT-3的预训练模型不是完全开源的,但是一些社区已经发布了相应的开源项目,可以在个人计算机上运行。 3. BERT:这是Google发布的基于Transformer架构的语言模型,可用于各种自然语言处理任务,例如文本分类、问答和命名实体识别等。BERT的预训练模型和微调代码都是完全开源的,任何人都可以使用。 4. RoBERTa:这是Facebook发布的基于BERT的语言模型,具有更好的性能和更高的准确率。RoBERTa的预训练模型和微调代码都是完全开源的,任何人都可以使用。 5. T5:这是Google发布的基于Transformer架构的语言模型,可以通过输入文本生成各种类型的输出,例如文章、对话、代码和图像等。T5的预训练模型和微调代码都是完全开源的,任何人都可以使用。 需要注意的是,这些模型需要在大量的数据上进行训练,因此需要大量的存储空间和计算资源。同时,需要具备一定的技术能力和硬件设备,例如GPU加速计算和Linux系统管理等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值