Компания Irregular привлекла $80M для разработки систем защиты передовых ИИ-моделей
Стартап Irregular, специализирующийся на безопасности искусственного интеллекта, объявил о привлечении 80 миллионов долларов финансирования в раунде под руководством Sequoia Capital и Redpoint Ventures. По данным источников, близких к сделке, оценка компании составила 450 миллионов долларов.
Новые вызовы безопасности в эпоху ИИ
Основатель компании Дан Лахав в интервью TechCrunch объяснил: «Наше видение заключается в том, что вскоре значительная часть экономической активности будет происходить от взаимодействия человек-ИИ и ИИ-ИИ, и это нарушит систему безопасности по множеству направлений».
От Pattern Labs к Industry Standard
Ранее известная как Pattern Labs, компания Irregular уже стала значимым игроком в области оценки ИИ. Их работа упоминается в security-оценках для Claude 3.7 Sonnet, а также моделей OpenAI o3 и o4-mini. Фреймворк компании для оценки способности модели обнаруживать уязвимости широко используется в индустрии.
Проактивный подход к безопасности
В то время как Irregular уже проделала значительную работу по оценке существующих рисков моделей, компания собирает финансирование с прицелом на нечто более амбициозное: обнаружение возникающих рисков и моделей поведения до их появления в реальном мире.
Соучредитель Омер Нево поясняет: «У нас есть сложные сетевые симуляции, где ИИ принимает на себя роли как атакующего, так и защитника. Когда выходит новая модель, мы можем увидеть, где защита выдерживает, а где — нет».
Инвестиции в безопасность ИИ наконец-то догоняют темпы развития самих моделей. 80 миллионов — это серьезная ставка на то, что рынок оценки рисков ИИ станет таким же критичным, как и традиционная кибербезопасность. Интересно, что инвесторы видят в этом не просто нишевый сервис, а фундаментальную инфраструктуру для всей индустрии.
Контекст растущих рисков
Безопасность стала точкой пристального внимания для индустрии ИИ, поскольку потенциальные риски, создаваемые передовыми моделями, продолжают проявляться. OpenAI провела аудит внутренних мер безопасности этим летом, уделяя внимание потенциальному корпоративному шпионажу.
Одновременно ИИ-модели становятся все более искусными в обнаружении уязвимостей программного обеспечения — способность, имеющая серьезные последствия как для атакующих, так и для защитников.
Для основателей Irregular это первая из многих проблем безопасности, вызванных растущими возможностями больших языковых моделей. «Если цель передовых лабораторий — создавать все более сложные и capable модели, то наша цель — защищать эти модели», — говорит Лахав. — «Но это движущаяся цель, поэтому в будущем предстоит сделать еще очень, очень много работы».
Сообщает TechCrunch.
