MatX залучила $500 мільйонів та кидає виклик домінації Nvidia у світі AI-чипів

Світ апаратного забезпечення для штучного інтелекту активно змінюється — і цього тижня одна з найбільш обговорюваних новин прийшла з Кремнієвої долини: стартап MatX, створений колишніми інженерами Google, успішно провів великий раунд фінансування, залучивши півмільярда доларів для розробки власних AI-чипів, які мають конкурувати з продукцією Nvidia.
MatX був заснований у 2023 році двома фахівцями з апаратного забезпечення для машинних обчислень — Reiner Pope і Mike Gunter, які раніше працювали над власними AI-чипами Google, включно з TPU. Їхня амбітна мета — створити процесори, здатні в 10 разів ефективніше обробляти великі моделі ШІ, ніж традиційні графічні процесори (GPU), що сьогодні домінують на ринку.
Новий раунд фінансування як маркер довіри інвесторів
У раунді Series B, що став одним із найбільш значних у сегменті апаратного ШІ за останні роки, лідерами стали інвестиційні компанії Jane Street і Situational Awareness — остання заснована колишнім дослідником OpenAI Leopoldом Aschenbrennerом. До них приєдналися Marvell Technology, венчурні фонди NFDG та Spark Capital, а також співзасновники Stripe Patrick та John Collison.
MatX давно привертав увагу венчурних капіталістів: рік тому він уже залучив близько $100 млн у серії A, що надало компанії оцінку понад $300 млн. Тепер, із новим фінансуванням, MatX оцінюється вже у кілька мільярдів доларів, хоча точної цифри не розкриває.
Гроші підуть передусім на розробку та виробництво нового AI-чипа спільно з TSMC, одним із провідних світових ливарних заводів. Компанія планує завершити фінальний дизайн чіпа у 2026 році, а перші поставки очікуються вже у 2027 році.
MatX як частина глобальної гонки за AI-силіконом
Стартап MatX не один у прагненні кинути виклик Nvidia — на ринку вже з’явилися й інші компанії, такі як Groq, Etched та Cerebras, які теж працюють над власними архітектурами для прискорення великих мовних моделей і інших AI-задач. Матеріально-обчислювальні потреби сучасних ІІ стрімко зростають, а це створює великий попит на альтернативні рішення більш ефективних і потужних чіпів.
MatX пропонує поєднати високопродуктивну пам’ять високої пропускної здатності, яку зазвичай використовують при навчанні моделей, з оперативною пам’яттю SRAM для швидшого обчислення на етапі “inference”, тобто при фактичній роботі моделі. Такий підхід може забезпечити вищу пропускну здатність при тренуванні та виконанні моделей, ніж це роблять стандартні GPU.
Чому це важливо для глобального AI-ринку
Домінування Nvidia на ринку AI-чипів, особливо у сегменті GPU для навчання великих моделей, залишається майже абсолютним: компанія контролює близько 80-90 % цього ринку. Але таке становище породжує потребу в альтернативах, особливо коли шафові обчислення для навчання та інференсу коштують мільярди доларів для великих компаній та лабораторій. Саме тому інвестори готові вкласти значні ресурси в проєкти, які можуть перевернути статус-кво.
Конкуренція в цьому сегменті може пришвидшити інновації у виробництві апаратного забезпечення для ШІ, знизити вартість обчислень і відкрити шлях до нових продуктів, доступніших для менших команд і компаній. Це важливо не лише для галузі, а й для всієї технологічної індустрії.
Майбутнє, яке формує MatX
Незважаючи на те, що MatX ще не випустив комерційного продукту, величина фінансування та склад інвесторів є чітким сигналом: апаратний ШІ-ринок досяг того моменту, коли великі гроші переходять від теорії до практики. Інвестори готові вкладати мільярди у створення альтернатив потужному GPU-монополісту, і це може суттєво змінити ландшафт обчислень у найближчі роки.
Стартапи на кшталт MatX перетворюють гонку за ІІ-ефективним обладнанням на глобальний виклик, де перемогти може не лише один гравець — і саме конкурентоспроможні рішення можуть зробити революцію в тому, як ми тренуємо й використовуємо штучний інтелект.