Amazon își propune să implementeze modelele AI pe cipuri uriașe Cerebras.
Amazon și Cerebras își unesc forțele pentru a accelera modelele lingvistice mari
Amazon Web Services (AWS) anunță că în mijlocul anului 2026 va începe să utilizeze cipurile startup-ului Cerebras Systems Inc. alături de propriile procesoare Trainium. Conform informațiilor interne ale companiei, aceasta va crea „condiții optime” pentru lansarea și întreținerea modelelor lingvistice mari (LLM). Detaliile financiare ale tranzacției nu sunt încă dezvăluite.
Ce se va întâmpla exact
* Cipurile Trainium 3 de la AWS vor procesa cererile utilizatorilor – „înțelegând” sensul acestora.
* Apoi cipurile Cerebras Wafer‑Scale Engine (WSE) se vor ocupa de generarea răspunsului.
Astfel, doi acceleratori specializați lucrează împreună și asigură calculele de inferență pentru LLM.
> „Interacțiunea dintre diferitele componente de obicei încetinește procesul,” – subliniază Nafea Bshara, vicepreședinte AWS. – „Dar ne străduim să obținem un avantaj utilizând cipuri care procesează inferența mai rapid.”
Avantajul este deosebit de evident acolo unde viteza de reacție contează: de exemplu, în scrierea pas cu pas a codului sau generarea textului în timp real.
De ce este important
* Amazon este unul dintre cei mai mari furnizori de cloud și un utilizator activ al GPU-urilor producătorilor Nvidia. În prezent, compania dezvoltă propriile cipuri AI pentru a crește eficiența centrelor de date și pentru a oferi clienților servicii unice.
* Pentru Cerebras, colaborarea cu AWS reprezintă primul contract major de la gigantul centrului de date, ceea ce sporește recunoașterea brandului în fața pieței potențiale. Acest lucru este de asemenea important înainte de planificarea IPO-ului lor.
Concluzii
AWS și Cerebras creează împreună o nouă infrastructură pentru modelele lingvistice mari: cipurile Trainium 3 procesează cererile, iar WSE generează răspunsuri. În ciuda faptului că un serviciu separat doar pe Trainium ar putea fi mai ieftin, soluția combinată promite o accelerare semnificativă unde „timpul este bani”. Aceasta consolidează pozițiile Amazon ca mare client Nvidia și, în același timp, avansează cipurile AI proprii ale companiei către o eficiență mai ridicată.
Comentarii (0)
Împărtășește-ți opinia — te rugăm să fii politicos și să rămâi la subiect.
Autentifică-te pentru a comenta