周三,AI安全公司Irregular宣布获得8000万美元新一轮融资,由红杉资本和Redpoint Ventures领投,Wiz首席执行官Assaf Rappaport参投。据接近交易的消息人士透露,此轮融资对Irregular的估值为4.5亿美元。
"我们认为,很快大量经济活动将来自人与AI的交互以及AI与AI之间的交互,"联合创始人Dan Lahav告诉TechCrunch,"这将在多个层面打破现有的安全体系。"
Irregular前身为Pattern Labs,已经是AI评估领域的重要参与者。该公司的研究成果被引用于Claude 3.7 Sonnet以及OpenAI的o3和o4-mini模型的安全评估中。更广泛地说,该公司用于评估模型漏洞检测能力的框架(名为SOLVE)在行业内得到广泛应用。
虽然Irregular在现有模型风险方面已做了大量工作,但公司此次融资的目标更加宏大:在新兴风险和行为在现实中出现之前就能发现它们。公司构建了一套复杂的模拟环境系统,能够在模型发布前进行深入测试。
"我们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,"联合创始人Omer Nevo说道。"所以当新模型出现时,我们可以看到防御在哪些方面有效,在哪些方面失效。"
随着前沿模型带来的潜在风险不断显现,安全已成为AI行业高度关注的焦点。OpenAI在今年夏天全面改革了内部安全措施,以防范潜在的企业间谍活动。
与此同时,AI模型在发现软件漏洞方面的能力越来越强——这种能力对攻击者和防御者都具有重大意义。
对于Irregular的创始人来说,这只是大语言模型能力不断增强所带来的众多安全挑战中的第一个。
"如果前沿实验室的目标是创造越来越复杂和强大的模型,那么我们的目标就是确保这些模型的安全,"Lahav说道。"但这是一个移动的目标,所以未来本质上还有更多、更多、更多的工作要做。"
Q&A
Q1:Irregular是什么公司?主要做什么业务?
A:Irregular是一家AI安全公司,前身为Pattern Labs,专注于AI模型的安全评估和防护。该公司已是AI评估领域的重要参与者,其研究成果被引用于多个知名模型的安全评估中,并开发了广泛应用的漏洞检测能力评估框架SOLVE。
Q2:Irregular如何测试AI模型的安全性?
A:Irregular构建了复杂的模拟环境系统,能够在模型发布前进行深入测试。他们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,通过这种方式测试新模型的防御能力,发现潜在的安全漏洞和风险。
Q3:为什么AI安全变得如此重要?
A:随着前沿AI模型能力不断增强,带来的潜在风险也在不断显现。AI模型在发现软件漏洞方面越来越强,这对攻击者和防御者都具有重大意义。未来大量经济活动将涉及人与AI以及AI之间的交互,这将在多个层面对现有安全体系构成挑战。