OpenAI, firma stojąca za popularnym modelem ChatGPT, planuje znaczące zmiany w strategii sprzętowej. Jak donosi Reuters, organizacja zacznie korzystać z chipów AMD w ramach współpracy z Microsoft Azure, jednocześnie rozwijając własne chipy do obsługi zaawansowanych obciążeń AI. To przełomowy krok, który może pomóc OpenAI w uniezależnieniu się od dominującej na rynku firmy Nvidia.
AMD MI300 i Azure jako kluczowe wsparcie
Według źródeł bliskich sprawie, OpenAI korzysta z rozwiązań AMD, takich jak chipy MI300, które zdobyły popularność dzięki sukcesom w sektorze data center. Wprowadzenie chipów AMD do środowiska Microsoft Azure jest częścią szerszej strategii obniżania kosztów i zwiększania dostępności sprzętu, co w ostatnich miesiącach okazało się wyzwaniem dla wielu firm działających w AI. To może znacząco poprawić stabilność działania usług OpenAI, jednocześnie zmniejszając zależność od konkurencyjnych rozwiązań Nvidia.
Ambitne plany na 2026
Równocześnie z wdrożeniem AMD, OpenAI pracuje nad własnymi chipami AI, mającymi obsługiwać ogromne obciążenia inferencyjne. Zespół odpowiedzialny za rozwój tych specjalistycznych układów liczy około 20 osób, w tym inżynierów z doświadczeniem przy projektowaniu Google Tensor. OpenAI ma zabezpieczone zasoby produkcyjne u TSMC, jednak według planów produkcja tych układów może rozpocząć się dopiero w 2026 roku.
Chociaż wcześniejsze doniesienia sugerowały, że OpenAI zamierza zbudować własną sieć fabryk do produkcji chipów, źródła Reutera podają, że ze względu na wysokie koszty i długi czas realizacji projekt ten został tymczasowo wstrzymany.
Droga do niezależności
Strategia OpenAI zbliża ją do podejścia stosowanego przez największe firmy technologiczne, jak Google, Microsoft czy Amazon, które już od lat rozwijają własne generacje chipów AI. Jednak OpenAI, by nadążyć za konkurencją, może potrzebować znacznego wsparcia finansowego.
W miarę rozwoju rynku AI oraz wzrostu zapotrzebowania na wydajny sprzęt, plany OpenAI mogą przynieść firmie długoterminowe korzyści. W najbliższych latach użytkownicy mogą oczekiwać dalszego rozwoju infrastruktury obsługującej narzędzia OpenAI, jak ChatGPT, z potencjalnie większą stabilnością i niższymi kosztami.