Protect AI由Ian Swanson与Daryan Dehghanpisheh、Badar Ahmed共同创立。Swanson曾领导AWS的全球AI和ML业务,也是连续创业者。Swanson创立的上一家创业公司DataScience.com正是MLOps领域技术最先进的公司之一,后来被Oracle收购,Badar Ahmed和Swanson曾经在DataScience.com及Oracle共事。
而Daryan Dehghanpisheh则是Ian Swanson在AWS的老同事,当时Swanson领AWS的AI客户解决方案团队,Dehghanpisheh则是AI架构师。
可以看出,这是一个“豪华”创业团队,既有过硬的技术,又有创业经历,还在大厂管理过大团队,帮助大量客户处理过问题。所以Salesforce Venture的投资人表示,他们对Protect AI最大的信心来源是出色的团队,其次是AI安全这个增长迅速且容量庞大的潜在市场。
Protect AI的种子轮投资人,Acrew Capital的创始合伙人Mark Kraynak也表示:“AI/ML是一种全新的应用类别和底层基础设施,就像移动网络、物联网和Web3一样。新的应用生态系统的安全遵循相同的循环:了解漏洞,找到它们,再添加上下文理解和优先级,最后实现自动化修复。Protect AI的团队从MLOps出发,进化到MLSecOps,我们对这一进化感到兴奋。”
从开源软件到首个MLSecOps平台
现在黑客们针对AI的攻击有多可怕?以机器学习系统中最受欢迎的工具之一MLflow(它可用于管理端到端的机器学习生命周期)举例。
攻击者们可以通过MLflow的漏洞,在未经认证的情况下远程读取MLflow服务器中用户的任何文件。MLflow的另一个漏洞,则能让攻击者直接控制MLflow服务器上的所有AI模型和数据。
目前,Protect AI拥有旗舰安全平台AI Radar,开源产品NB Defense,以及全球首个人工智能和机器学习漏洞赏金平台huntr。
AI Radar
AI Radar是Protect AI的旗舰产品,也是行业内首个MLSecOps平台。这个平台主要解决的关键挑战是:让企业用户的AI系统更可视化,更方便审计,也更好管理。
AI Radar使组织能够通过评估其ML供应链的安全性并迅速识别和减轻风险,从而更安全地部署AI。它通过实时监控和洞察ML系统的攻击面,生成和更新防篡改的ML物料清单(MLBOM),与SBOM不同,它提供了ML系统中所有组件和依赖关系的列表,使客户完全了解AI/ML的来源。它还能跟踪公司的“软件供应链”组件:运营工具、平台、模型、数据、服务和云基础设施。
该平台使用集成的模型扫描工具来检测大模型和其他ML推理工作负载中的安全政策违规、模型漏洞和恶意代码注入攻击。此外,AI Radar可以与第三方AppSec和CI/CD编排工具以及模型稳健性框架集成。
AI Radar使整个AI系统,可观察,可管理,可审计,不再是一个黑盒子。弥合了AI团队和应用安全专业人员之间的鸿沟。
许多大型企业使用多个ML软件供应商,如Amazon Sagemaker、Azure Machine Learning和Dataiku,从而导致他们的ML管道有各种配置。
Ian Swanson强调AI Radar保持供应商中立,并无缝集成所有这些不同的ML系统,创建一个统一的“单一视窗”。通过这种方式,客户可以轻松获取任何ML模型的位置和来源以及其创建中使用的数据和组件的关键信息。
Ian Swanson表示,ProtectAI的下一步重点是为AI Radar找到产品和市场契合点(PMF),它的早期客户包括AI基础模型供应商和MLOps平台提供商,以及金融服务、医疗保健、生命科学等领域的公司。
NB Defense
Protect AI推出的第一个产品是NB Defense,这是一个开源应用程序,旨在解决AI开发平台Jupyter Notebook中的漏洞。
AI开发者使用Jupyter Notebook来创建和分享包含实时代码、函数、可视化、数据和文本的文档。研究机构发现,未妥善保护的Jupyter Notebook文件可能会容易受到基于Python的勒索软件和加密货币挖矿攻击。
Protect AI使用NB Defense扫描了1000多个公共Jupyter Notebook,并发现了许多泄露的个人身份信息和可能被攻击者利用来攻击云系统的关键漏洞,包括获得对敏感数据库的访问权限。
而NB Defense是针对Jupyter Notebook的安全解决方案,它创建了一个从传统安全功能到Jupyter Notebook扫描的转换层,并且生成安全报告,报告中包含指向Jupyter Notebook中问题区域的特定上下文链接,以便进行修复。
NB Defense目前提供免费许可,AI开发者们可以轻松安装NB Defense。
huntr
huntr是全球首个AI/ML漏洞赏金平台,安全研究人员可以在这个平台/社区上发现、披露、修复AI和ML安全威胁,并获得奖励。
huntr的前身是huntr.dev,它由Adam Nygate于2020年创立,拥有超过一万名专注于开源软件(OSS)的安全研究员的庞大网络,一直处于OSS安全研究和开发的前沿。
huntr是Protect AI的MLSecOps社群的一个重要组成部分,由此也可以看出Protect AI拥抱安全开发者和建立生态的决心。
Protect AI的威胁研究负责人Chloé Messdaghi强调了该平台的精神:“我们相信透明度和公平的报酬。我们的使命是削减噪音,为安全研究人员提供一个能够认可他们的贡献、奖励他们的专业知识,并培养协作和知识共享社群的平台。”
AI安全未来会是企业的刚需
安全对于AI的重要性已经不言而喻,无论是对于C端用户还是企业客户,都是刚需。随着AI在企业流程中渗透得越来越深,创造越来越多的价值,它的安全性会越被企业的高层重视。
海外的某知名投资机构,近日也推出一篇关于AI安全的文章,文章提到了AI安全的两大重点:云安全模型,AI的可观察性、可管理性和可审计性;还有几个重要模块:数据来源安全,AI Agent身份验证,工具链和供应链的风险防范,MLSecOps,模型版本管理,以及数据中毒防范,模型盗窃防范。
Protect AI的重点就是AI的可观察性,可管理性和可审计性,推出了MLSecOps平台,也能防范模型盗窃。而在其他的几个方向,仍然有大量的创业机会,海外也已经有不少创业公司在AI安全赛道耕耘。
例如Hidden Layer,它可以在不需要访问任何原始数据或供应商模型的情况下保护AI模型免受攻击,目前融资额600万美元。
Robust Intelligence的产品可以对AI模型进行安全方面的压力测试,目前融资额3000万美元。
CalypsoAI做的是验证和监控AI应用的工具,目前融资额2300万美元。
目前中国的生成式AI已经完成了基础大模型的积累阶段(各大厂和头部创业公司都已有大模型),下一步将进入AI的大规模应用阶段。
解决AI的安全问题,将推动AI的进一步普及,创造更多价值。随着AI在C端和企业端的广泛应用,AI安全这个刚需的需求量将大增。
而这也将产生众多的创业机会,值得期待。