Delve опинився в новому скандалі після атаки на AI-проєкт LiteLLM

Скандал навколо Delve тільки почав вщухати, як з’явився новий удар — цього разу вже з реальними наслідками для безпеки. AI-проєкт LiteLLM, який використовують тисячі розробників, зазнав атаки шкідливого коду. І головне — саме Delve відповідав за його комплаєнс.
Ця історія різко піднімає ставки: тепер мова не про теоретичні звинувачення, а про інцидент, який реально стався.
LiteLLM заражають через залежність і викрадають дані
Інцидент почався з того, що дослідник безпеки виявив шкідливий код у залежності, яку використовував LiteLLM. Після встановлення проєкту його система фактично була скомпрометована.
Механіка атаки виглядала класично, але небезпечно ефективно. Шкідливий пакет отримував доступ до логінів і токенів, після чого використовував їх для проникнення в інші акаунти та репозиторії.
У результаті одна точка входу могла масштабуватися до ланцюгової компрометації — типовий сценарій supply chain attack.
Іронічно, що сам дослідник помітив атаку через збій: баг у шкідливому коді спричинив краш системи, що і привернуло увагу.
Сертифікація від Delve не врятувала від атаки
Найгостріший момент історії — LiteLLM мав сертифікації безпеки SOC 2 і ISO 27001. І ці сертифікати були отримані за участі Delve.
Це створює прямий контраст: формально проєкт відповідав стандартам безпеки, але фактично став жертвою атаки.
Важливо розуміти нюанс. Сертифікації підтверджують наявність процесів і політик, але не гарантують повний захист від інцидентів. Навіть SOC 2 охоплює управління залежностями, але не виключає ризик зараження через сторонній код.
Проте в контексті попередніх звинувачень проти Delve ця ситуація виглядає особливо критично.
Скандал із «фейковим комплаєнсом» отримує новий вимір
До цього Delve вже звинувачували в тому, що компанія могла генерувати «штучні докази» відповідності стандартам і вводити клієнтів в оману.
Тепер ці звинувачення накладаються на реальний кейс, де сертифікований продукт зазнав атаки.
Фактично виникає новий рівень питання:
наскільки можна довіряти AI-комплаєнсу, якщо навіть сертифіковані системи залишаються вразливими?
Delve заперечує попередні звинувачення і наполягає, що лише автоматизує процес підготовки до аудиту, а не видає сертифікати самостійно.
Але репутаційний ефект уже накопичується.
Supply chain атаки стають головною загрозою AI
Історія LiteLLM — це не одиничний випадок, а симптом ширшої проблеми. Сучасні AI-проєкти залежать від десятків і сотень сторонніх бібліотек.
Саме ці залежності стають найслабшою ланкою. Один скомпрометований пакет може відкрити доступ до всієї інфраструктури.
LiteLLM — популярний open-source інструмент із мільйонами завантажень — став ідеальною мішенню для такої атаки.
І це показує нову реальність: у світі AI безпека більше не обмежується кодом самої компанії.
Сертифікація більше не дорівнює безпеці
Кейс Delve і LiteLLM руйнує одну з ключових ілюзій ринку — що наявність сертифікатів означає захищеність.
У 2026 році цього вже недостатньо. Безпека стає динамічним процесом, де важливі не лише документи, а й реальний контроль над кодом, залежностями і доступами.
І головний висновок для бізнесу очевидний:
комплаєнс може виглядати ідеально на папері — але це не означає, що система витримає реальну атаку.