Cogeco Peer 1更名为Aptum Technologies;增加新服务以增强和扩展混合云解决方案

该公司将继续设在多伦多,由高管领导,他们已将Cogeco Peer 1发展成为主机托管和云服务领导者

 

多伦多--(美国商业资讯)--主机托管和云服务提供商Cogeco Peer 1今日宣布,该公司已更名为Aptum Technologies。这是Cogeco Peer 1于2019年4月被专注于数字基础设施战略机遇的全球投资公司Digital Colony收购的后续行动。

 

Aptum首席执行官Susan Bowen表示:“Aptum意味着‘适应能力’,反映了我们的传统和对未来的憧憬。随着企业面临信息量的指数级增长,以及数据成为其基础设施不可或缺的一部分,技术平台必须适应并利用数据的力量,以改善决策、风险评估和客户参与。我们通过提供强大的基础架构帮助企业组织释放数据潜力,让客户能够解决复杂难题,并尽可能发挥其业务潜能。”

 

Aptum总部继续设在多伦多,将运营两大重点事业部——数据中心和光纤。数据中心事业部将专注于为企业提供多云服务。光纤事业部将成为加拿大首家独立且中立的主机提供商,提供小型蜂窝和5G基础设施,以及与遍布大多伦多和蒙特利尔广泛的城域光纤网络的企业级和批发光纤连接。

 

Aptum 20年来长期致力于帮助客户充分利用技术来存储、管理、移动和保护关键数据,是少数能够在北美和中美洲、欧洲、中东和非洲提供真正的混合基础设施解决方案并有安全的数据中心、云、连接和托管服务的公司之一。

 

Aptum由经验丰富的高管团队领导,包括:

 

  • 首席执行官Susan Bowen

  • 首席财务官Shenif Visram

  • 总裁兼光纤事业部主管Sanjay Sachdev

  • 数据中心事业部首席营收官Leighton Plumley

  • 全球战略客户与联盟执行副总裁Cindy Jordan-Ford

  • 首席运营官Jeremy Pease

  • 临时首席基础设施官Scott Davis

  • 人力资源副总裁Paul Dyck

 

在品牌重塑的同时,Aptum已推出两款新的解决方案,以扩展并增强客户的混合云选项:

 

  • AWS托管服务      – 这一新的AWS服务套件是对Aptum现有的托管Azure和托管私有云解决方案的补充,将巩固Aptum对多云的承诺。AWS托管服务包括咨询;架构/设计;解决方案构建和配置;迁移;项目管理;长期服务管理和优化;及7天24小时全天候专家支持。AWS托管服务在加拿大、美国和英国提供。

 

  • 推出新的Cloud      Connect – Cloud      Connect的扩展,提供与云服务的直接、专用和安全连接。除Microsoft ExpressRoute之外,Cloud Connect现在还可用于AWS Direct Connect、Google Cloud Platform、ServiceNow、Salesforce、SAP和Oracle。Cloud      Connect扩展版在所有地区提供。

 

Bowen表示:“增加这些新的云服务是Aptum不断发展以满足客户不断变化的需求的完美体现。每个企业都有自己独特的考虑因素、制约因素和目标,而这些将能够通过不同的解决方案予以解决。帮助客户确定满足其独特需求的适当平台,然后提供专家协助部署,是企业纷纷转向Aptum的原因所在。”

 

Element AI的IT总监Ludwig Gamache表示:“作为一家发展迅猛的人工智能产品公司,Element AI需要一名真正的合作伙伴来帮助我们专注于业务增长,而不是总为自己的数据中心基础设施担心。过去的两年间,Cogeco Peer 1持续为我们提供服务。我们的需求不同于大多数公司,原因在于机器学习和人工智能算法的计算密集型特性——比一般客户需要更多的热耗散和更高的功率。如今,Element AI的规模比我们2016年成立时大35倍,而Cogeco Peer 1已经能够对应我们的独特挑战。随着公司的成长,我们期待继续通过Aptum发展自身的IT基础设施。”

 

资源:

 

 

关于Aptum Technologies

 

Aptum Technologies助力客户释放其数据基础设施的潜力,从而切实推动业务成果,并最大限度提高他们的技术投资价值。Aptum的数据中心、云、托管和连接解决方案以专家管理和专业服务为基础,提供真正的选择和适应能力,同时具备横跨北美、拉美和欧洲的国际影响力。依托其光纤业务,Aptum成为加拿大首家提供统包小型蜂窝连接的中立主机提供商,为整个多伦多和蒙特利尔的广泛城域网络提供支持。Aptum是致力于数字基础设施战略机遇的全球投资公司Digital Colony旗下的投资组合公司。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值