在这里以现货由NetApp我们不断创新我们的机器学习模型使用为identif应和预测荷兰国际集团(ing)现货能力使用和干扰为所有主要公共云(AWS、Azure和GCP).这些专有算法扩大运用能力现货能力为生产和关键任务工作负载,让我们的客户享受高达90%的云计算成本降低sla和slo那保证可用性.
最近我们滚出一个对这些进行了重大改进模型,大多数值得注意的是我们新的预测再平衡功能.这个新的再平衡模型是应用程序- - - - - -驱动,结合先进的预测算法深刻理解基础设施而且实时分析工作负载需求,以自动提供和分配云以最高效有效的方式建设基础设施.这不仅提供了远更早,更精细但预测需要你的独特的工作量和应用程序需求考虑到从而确保每个进程都有它需要的时间是完整的d.在预测的情况下中断,每个应用程序都可以优雅地过渡到新的更换实例。这是一个lignment应用需求的预测确保正常运行时间,sca勒而且成功的工作负载执行对于任何情况.
实际上,你现在可以可靠地运行更大的范围的应用程序在点的能力,作为我们的更准确的可见性成供给与需求驱动更好的长寿命点实例的选择和更积极的避免干扰和中断。
让我们偷看下面还有一些新功能的回顾哟你就能接触到,以AWS EC2现货实例为例。
跟踪现货实例容量
AWS大约有15,000个现货实例池容量全球范围内,每个都由其区域/可用分区、实例类型、大小和操作系统。与一个vailability基于不断变化的供求关系,确定哪些点实例将有更长的寿命,哪些将被终止需要获得大量的这两个历史和当前EC2消费,在这机器学习算法能学会准确预测吗这些容量池的行为。
拥有超过数十亿事件,由我们的平台收集NetApp的Spot就可以访问这类信息独特的数据.耦合这用我们全新的算法我们是现在能够可靠地预测,甚至在更大的程度上,哪个现场实例将是打断了哪一个会享受更长寿,好处引导我们的客户与最低成本的云计算而且用于高可用性的企业级SLA.
机器学习算法预测发现实例中断
我们更新的预测再平衡算法可以准确预测和替换发现实例,准确率高达85%,在高峰业务时间中断前一小时。此外,在选择所需的点实例类型时(见下文),可以使用我们的算法部署匹配实例,以最大概率匹配所定义的需求。
这些预测算法样本多个统计有积极蚂蚁数据集S和已被证明以准确反映更广泛的AWS EC2环境中的现场实例行为.
预测再平衡功能
NetApp客户的现货使用Elastigroup为应用程序现在可以运行更广泛的工作负载,甚至是那些对中断年代—例如,applicat离子排水时间长-在便宜的EC2定位实例,而不用担心停机或性能下降。
一旦你选择了您可以使用所需的集群配置定义的参数在事件发生时管理您的现货实例ctual或潜在的中断年代.
工作负载能力
在这里,您可以选择实例或vcpu和期望目标,最小值和最大值分别.如果你愿意总是使用按需实例运行部分工作负载,您可以定义特定数量的实例,也可以设置按需实例与现货实例的百分比.
优化策略
这个特征有t深入分析部分.首先,你可以选择如果没有可用的现货实例,则回退到按需。其次,您可以选择在启动新的现货实例之前利用任何可用的保留实例。通过使用已经支付的资源,这将带来更高的成本效益。雷竞技rabet官网
最后,y你可以定义Ne你的现货实例投资组合的整体定位如下:
- 成本- - - - - -现货NetApp会寻找最便宜的产品现货要运行的实例,即使有更频繁替换的风险.
- 可用性——NetApp的Spot将寻找寿命最长的Spot实例池为了你的工作量.
- 平衡-这是NetApp推荐的Spot定位,在成本和可用性之间寻求平衡。
持续优化
如果发生随需应变实例的回退,您可以选择何时停止工作负载返回到现场实例或已移动到实例类型已经买了的,可用保留能力。
EC2现货实例可用性的可见性和寿命
在这里,您可以选择希望工作负载无负载运行的所需时间中断到它们的基本实例。Spot by NetApp将会寻求场外实例年代从你的选择famil前辈们、大小年代而且阿兹的概率最大跑了那么久。
您还可以定义应用程序的耗尽周期需要所以我们的自动化将开始取代实例年代有足够的时间中断是预测发生,允许完整而优雅的排水。
应用驱动的预测再平衡
在任务关键型工作负载中使用现场实例总是有中断的风险,这使得它们的使用虽然在财务上有吸引力,但并不理想。Spot由NetApp已经启用云消费者使用现货实例来大幅节省成本,同时确保高可用性。今天我们让这更进一步通过耦合我们的新预测再平衡凭借我们先进的云计算自动化和持续优化,您所有的应用程序和工作负载都将总是有他们需要的资源雷竞技rabet官网高可用性,性能和最大的成本效益。
预测再平衡正在我们的客户基础上推出,并可通过Spot控制台访问。您将能够通过UI、API或您首选的IAC - Terraform或Cloudformation配置预测性再平衡。开始吧今天就联系我们!