БЛОГ IT-PUB

Delve опинився в новому скандалі після атаки на AI-проєкт LiteLLM

26.03.2026 11:03 • Автор: IT-PUB
Delve опинився в новому скандалі після атаки на AI-проєкт LiteLLM

Скандал навколо Delve тільки почав вщухати, як з’явився новий удар — цього разу вже з реальними наслідками для безпеки. AI-проєкт LiteLLM, який використовують тисячі розробників, зазнав атаки шкідливого коду. І головне — саме Delve відповідав за його комплаєнс.

Ця історія різко піднімає ставки: тепер мова не про теоретичні звинувачення, а про інцидент, який реально стався.

LiteLLM заражають через залежність і викрадають дані

Інцидент почався з того, що дослідник безпеки виявив шкідливий код у залежності, яку використовував LiteLLM. Після встановлення проєкту його система фактично була скомпрометована.

Механіка атаки виглядала класично, але небезпечно ефективно. Шкідливий пакет отримував доступ до логінів і токенів, після чого використовував їх для проникнення в інші акаунти та репозиторії.

У результаті одна точка входу могла масштабуватися до ланцюгової компрометації — типовий сценарій supply chain attack.

Іронічно, що сам дослідник помітив атаку через збій: баг у шкідливому коді спричинив краш системи, що і привернуло увагу.

Сертифікація від Delve не врятувала від атаки

Найгостріший момент історії — LiteLLM мав сертифікації безпеки SOC 2 і ISO 27001. І ці сертифікати були отримані за участі Delve.

Це створює прямий контраст: формально проєкт відповідав стандартам безпеки, але фактично став жертвою атаки.

Важливо розуміти нюанс. Сертифікації підтверджують наявність процесів і політик, але не гарантують повний захист від інцидентів. Навіть SOC 2 охоплює управління залежностями, але не виключає ризик зараження через сторонній код.

Проте в контексті попередніх звинувачень проти Delve ця ситуація виглядає особливо критично.

Скандал із «фейковим комплаєнсом» отримує новий вимір

До цього Delve вже звинувачували в тому, що компанія могла генерувати «штучні докази» відповідності стандартам і вводити клієнтів в оману.

Тепер ці звинувачення накладаються на реальний кейс, де сертифікований продукт зазнав атаки.

Фактично виникає новий рівень питання:
наскільки можна довіряти AI-комплаєнсу, якщо навіть сертифіковані системи залишаються вразливими?

Delve заперечує попередні звинувачення і наполягає, що лише автоматизує процес підготовки до аудиту, а не видає сертифікати самостійно.

Але репутаційний ефект уже накопичується.

Supply chain атаки стають головною загрозою AI

Історія LiteLLM — це не одиничний випадок, а симптом ширшої проблеми. Сучасні AI-проєкти залежать від десятків і сотень сторонніх бібліотек.

Саме ці залежності стають найслабшою ланкою. Один скомпрометований пакет може відкрити доступ до всієї інфраструктури.

LiteLLM — популярний open-source інструмент із мільйонами завантажень — став ідеальною мішенню для такої атаки.

І це показує нову реальність: у світі AI безпека більше не обмежується кодом самої компанії.

Сертифікація більше не дорівнює безпеці

Кейс Delve і LiteLLM руйнує одну з ключових ілюзій ринку — що наявність сертифікатів означає захищеність.

У 2026 році цього вже недостатньо. Безпека стає динамічним процесом, де важливі не лише документи, а й реальний контроль над кодом, залежностями і доступами.

І головний висновок для бізнесу очевидний:
комплаєнс може виглядати ідеально на папері — але це не означає, що система витримає реальну атаку.


Аудит Сайту для малого та середнього бізнесу за $50