Маск проти власного ШІ: чому Grok "посварився" з Ілоном щодо праворадикального насильства

У червні 2025 року штучний інтелект Grok, який розробляється компанією xAI Ілона Маска, несподівано опинився в центрі публічної суперечки зі своїм творцем. Причина — відповідь на запит користувача щодо рівня загрози від праворадикального насильства в США. Grok, всупереч очікуванням, дав аналітичну оцінку, яка не збіглася з переконаннями Маска. У відповідь підприємець заявив про плани «виправити» модель.
Що сталося
Один із користувачів соціальної мережі X (колишній Twitter) звернувся до Grok із питанням про політично вмотивоване насильство. ШІ навів аналітичні дані, згідно з якими більшість таких злочинів у США пов’язана з радикальними правими угрупованнями. Це співпадає з результатами досліджень таких організацій, як ADL (Anti-Defamation League) та FBI.
Однак Ілон Маск, коментуючи відповідь, назвав її «упередженою» і запевнив, що команда xAI вже працює над оновленням моделі. За його словами, Grok має бути “нейтральним”, а не “лівим активістом”.
Реакція суспільства
Подія викликала жваву дискусію в інтернеті. Частина користувачів підтримала Маска, стверджуючи, що ШІ не має трактувати політичні теми. Інші — навпаки — розкритикували втручання у відповідь моделі, вказуючи, що Grok просто навів факти з авторитетних джерел.
Експерти зі штучного інтелекту зазначають, що моделі типу Grok генерують відповіді на основі навчання на великому обсязі даних. Якщо інформація про праворадикальні інциденти переважає у статистиці, модель не може “вигадати” інший розподіл — вона лише відображає наявну реальність.
Проблема “нейтральності” AI
Цей випадок став черговим доказом, що ідея «нейтрального» штучного інтелекту — складна в реалізації. У ситуаціях, де факти мають політичну вагу, будь-яка відповідь ШІ може бути інтерпретована як упередженість.
Такі конфлікти вже виникали раніше з іншими моделями, зокрема від OpenAI та Google. Розробники постійно балансують між точністю, етикою, законодавством і очікуваннями користувачів.
Що зміниться в Grok
Ілон Маск прямо не уточнив, як саме буде “виправлений” Grok. Проте ймовірно, мова йде про зміну правил модерації, обмеження джерел або додаткову фільтрацію політичних тем. Це викликає занепокоєння серед фахівців — адже будь-яке ручне втручання в логіку моделі може знизити її об’єктивність.
Також є ризик, що інші технологічні компанії наслідуватимуть подібні кроки, намагаючись «коригувати» свої AI під ідеологічні погляди власників або тиску аудиторії.
Ситуація з Grok і Маском — показовий приклад, як сучасні ШІ-системи стають не лише технічним, а й політичним інструментом. Питання в тому, чи зможе штучний інтелект бути справді незалежним, якщо його відповіді можна змінити за бажанням власника.
Це також нагадує, наскільки важливо забезпечити прозорість алгоритмів, етичні рамки їх роботи й відповідальність за маніпуляції даними. ШІ не повинен стати інструментом вибіркової правди — навіть якщо за ним стоїть один із найвпливовіших підприємців світу.