平板电脑迁移延时太长Cortex能一键解决吗
机器学习模型部署平台Cortex推出新版本,带来一键化解决方案
在最近的更新中,Cortex V0.13被宣布,这是一个为生产Web服务设计的工具。它能够与AWS服务结合,以解决Jupyter Notebook到生产环境迁移过程中的一系列问题。现有的TensorFlow、PyTorch或其他机器学习框架通常需要不同的技能集,如Docker、Kubernetes和NVIDIA驱动程序等。这导致从笔记本电脑迁移到云端可能耗时数周,并且浪费了大量计算资源,同时提升用户体验的空间。
Cortex v0.13通过提供多项新功能,显著提高了使用体验,使得将机器学习模型预测作为网络服务更快捷地部署到生产流程中。这些改进包括自动扩展、多框架支持、CPU/GPU支持、预测监测以及最小化配置等。
自动扩展功能允许Cortex根据处理工作负载调整API,从而避免高延迟并减少AWS账单。此外,它广泛支持TensorFlow, Keras, PyTorch, Scikit-learn, XGBoost等多种机器学习框架,还能在CPU或GPU基础设施上运行推理任务。
滚动更新使得直接将更新应用于API,无需产生延迟,而日志流则可以实时查看日志以简化流程。预测监测功能可检测网络量度并追踪预测结果。此外,Spot 实例可以享受最高折扣,而最小化配置只需要一个cortex.yaml文件定义即可。
总之,整个系统利用开源工具如TensorFlow, Kubernetes和Docker,与CloudWatch等AWS服务相结合,为开发人员提供了一种API来部署其模型,然后将它们集装箱化,并部署到幕后的Kubernetes上。Cortex会自动扩展工作量,如果计算量很大,可以切换到GPU进行优化。在GitHub上,有许多运行示例供参考,如鸢尾花分类、文本生成及情绪分析等基于TensorFlow的项目,以及阅读理解和语言生成等基于PyTorch的项目。
虽然有网友对此表示赞赏,但也有人提出疑问,比如为什么要与AWS绑定而不是所有k8s集群?以及不能通过Minikube在本地测试吗?不过,由于不使用容器这一点,在Google Cloud上的ML预测服务看起来是有优势的。
对于最新版本的C Cortex,你有什么想法?欢迎留言分享你的评论!