JFrog携手Qwak打造安全的MLOps工作流,加速AI应用程序批量化交付

近日,JFrog宣布与全托管机器学习(ML)平台Qwak进行全新技术整合,将机器学习模型与传统软件开发流程相结合,以简化、加速和扩展ML应用的安全交付。

JFrog携手Qwak打造安全的MLOps工作流,加速AI应用程序批量化交付
全新原生集成助力企业借助端到端软件供应链的可视性、治理和安全性,高效地交付ML应用程序

JFrog战略执行副总裁Gal Marder表示:“目前,数据科学家和ML工程师正在使用大量不同的工具来发布成熟的模型,而这些工具大多与企业内的标准DevOps流程脱节。这不仅拖慢了MLOps流程,有损安全性,还增加了构建AI应用的成本。以Artifactory和Xray为核心的JFrog平台与Qwak的结合为用户提供了一个完整的MLSecOps解决方案,使ML模型与其他软件开发流程保持一致,为工程、MLOps、DevOps和DevSecOps团队的所有软件组件创建了一个单一事实来源,从而使其能够以最低的风险和更低的成本,更快速地构建和发布AI应用。”

将JFrog Artifactory和Xray与Qwak的ML平台相结合,将ML应用程序与现代化DevSecOps和MLOps工作流中的其他所有软件开发组件结合在一起,使数据科学家、ML工程师、开发人员、安全人员和DevOps团队能够轻松、快速、安全地构建 ML 应用程序,并遵守所有监管准则。原生Artifactory集成将JFrog的通用ML模型注册表与集中式MLOps平台相连接,使用户能够轻松地构建、训练和部署模型,并提高可视性、治理、版本管理和安全性。使用集中式平台部署 ML 模型,还能让用户减少对基础设施的关注,从而专注于核心数据科学任务。

IDC的研究表明,虽然越来越多的用户在使用AI/ML,但要想大规模地实现AI/ML的全部优势,主要面临三方面的障碍因素:实施和训练模型的成本,专业人才的短缺,以及AI/ML缺乏统一的软件开发生命周期流程。

JFrog软件开发、DevOps和DevSecOps项目副总裁Jim Mercer表示:“对于希望扩展自身MLOps能力的企业来说,构建ML管道可能是一件复杂、耗时且成本高昂的工作。这些自行构建的解决方案不具备管理和保护大规模构建、训练和调整ML模型过程的能力,而且几乎不具备可采纳性。拥有一个有助于自动化开发的单一记录系统,提供有据可查的出处链,并确保ML模型与所有其他软件组件的安全性,为优化ML流程提供了一个值得信赖的替代方案,同时提升了模型安全性和合规性。”

如果不具备ML运维(MLOps)所需的正确的基础设施、平台和流程,在构建、管理和扩展复杂的ML基础设施,快速部署模型,并在避免高额费用的情况下确保模型的安全将会变得极为困难。基础设施的复杂性往往为企业带来管理层面的挑战,从而导致各种开发环境之间的身份验证和安全协议成本高昂且耗时。

Qwak首席执行官Alon Lev表示:“如今,AI和ML已从遥远的未来转变为无处不在的现实。构建ML 模型是一个复杂而耗时的过程,因此对于许多数据科学家而言,将自己的想法转化为可投入生产的模型并不容易。 虽然市场上有很多开源工具,但将所有这些工具组合在一起构建一个全面的ML管道并非易事,因此我们很高兴能与JFrog合作开发解决方案,使客户能够像使用JFrog Artifactory和Xray一样安全地管理软件供应链,实现ML制品和发布的自动化。”

JFrog安全研究团队在广泛使用的AI模型库Hugging Face中发现了恶意ML模型,这进一步证实了安全的端到端MLOps流程势在必行。他们的研究发现,Hugging Face中的多个恶意ML模型带来了威胁行为者执行代码的隐患,这可能导致数据泄露、系统受损或其他恶意行为。

(来源:中关村)
(来源:中关村)

关于作者: useredtyjetj

免责声明:本站全部内容出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不构成任何建议。其文中陈述文字和内容来源于第三方或网络,对本站 全部内容、文字、图片的真实性、完整性、及时性不作任何保证或承诺,仅作参考,请自行核实相关内容。如有稿件内容、版权等问题请及时联系我们进行处理。

为您推荐

发表评论