Delve зупинив демонстрації і опинився в центрі скандалу через «фейкову відповідність»

Ще вчора Delve виглядав як одна з найперспективніших AI-компаній у сфері комплаєнсу, яка обіцяє автоматизувати складні аудити і зекономити бізнесу сотні годин. Сьогодні ж стартап стрімко втрачає довіру: демонстрації продукту зупинені, а інвестори почали дистанціюватися.
Історія розгортається настільки швидко, що вже стала показовим кейсом для всього ринку AI та безпеки.
Delve різко згортає активність після гучних звинувачень
Стартап Delve, підтриманий Y Combinator, вимкнув можливість бронювання демо на своєму сайті — один із ключових каналів залучення клієнтів.
Це стало прямою реакцією на публікацію анонімного інформатора, який виступив під псевдонімом DeepDelver. Він стверджує, що компанія системно підробляла дані для проходження комплаєнс-перевірок.
Паралельно один із головних інвесторів стартапу — Insight Partners — видалив матеріал, у якому пояснював причини інвестиції в Delve.
Такі дії сигналізують про класичний сценарій кризового менеджменту: компанія намагається обмежити публічну активність, а інвестори — мінімізувати репутаційні ризики.
Інформатор заявляє про системну фальсифікацію аудиту
Суть звинувачень значно серйозніша за звичайний PR-скандал. За словами DeepDelver, Delve не просто автоматизував процеси, а фактично створював «ілюзію відповідності».
Йдеться про генерацію доказів, які не мають відношення до реальних процесів: вигадані протоколи засідань, тести без виконання і документація, що не підтверджується фактами.
Більше того, стверджується, що аудиторські висновки могли формуватися без незалежної перевірки, а сам процес комплаєнсу фактично перевертався: результат створювався раніше, ніж перевірка.
У результаті сотні компаній могли отримати статус відповідності стандартам на кшталт GDPR чи HIPAA лише формально, без реального виконання вимог.
Це створює не просто технічну проблему, а юридичний ризик — аж до штрафів і відповідальності.
Delve заперечує звинувачення і змінює позиціонування
У відповідь компанія заявила, що не видає сертифікати відповідності і не проводить аудит самостійно. Delve позиціонує себе як платформу автоматизації, яка лише збирає дані і передає їх незалежним аудиторам.
Також стартап наголосив, що клієнти можуть працювати з будь-якими аудиторами або обирати партнерів із їхньої мережі.
Щодо «фейкових доказів», компанія пояснює це використанням шаблонів, які допомагають бізнесу документувати процеси відповідно до стандартів.
Фактично Delve переводить дискусію з площини «фальсифікації» у площину «інструментів автоматизації».
Чому цей кейс важливий для всього AI-ринку
Скандал із Delve виходить далеко за межі однієї компанії. Він демонструє критичну проблему сучасного AI-бізнесу — надмірну довіру до автоматизованих систем у сферах, де ціна помилки надзвичайно висока.
Комплаєнс — це не просто документація, а юридичний фундамент бізнесу. Якщо AI-платформи починають імітувати процес замість його виконання, це підриває саму ідею цифрової трансформації.
Ситуація також підсвічує іншу тенденцію: стартапи дедалі агресивніше просувають свої продукти, інколи випереджаючи реальні можливості технології. У гонці за інвестиціями і масштабуванням межа між автоматизацією і маніпуляцією стає розмитою.
Довіра до AI стає ключовим ресурсом
Історія Delve — це не просто скандал навколо одного стартапу. Це сигнал для всього ринку: епоха безумовної довіри до AI закінчується.
Бізнес починає вимагати не лише швидкість і автоматизацію, а й прозорість процесів. Інвестори — перевіряти глибше, ніж маркетингові презентації. А користувачі — ставити під сумнів навіть найпереконливіші обіцянки.
У 2026 році виграють не ті, хто найгучніше заявляє про інновації, а ті, хто може довести їхню реальність.