Amazons cloud computing-vinge – AWS, enligt uppgift överväger att använda AMD-chips för sina AI-behov.
Även om Amazon inte har gjort något uttalande ännu, har en AWS-chef sagt till Reuters att AMD:s MI300 kan vara bättre lämpad för deras behov. Amazon har redan avböjt att använda Nvidias DGX Cloud-plattform och kan överväga alternativ för sina cloud computing-behov.
Cashing on the Rise of AI
Uppkomsten av generativa AI-verktyg som ChatGPT fick teknikföretag att uppfinna chatbots av liknande slag. Och denna teknik behövde speciell hårdvara eftersom den berörda AI behöver tränas på stora datamängder som en del av processen.
I denna strävan, Amazon Web Services (AWS), världens största cloud computing-företag, sägs överväga AMD-chips för sina framtida AI-behov. Även om det huvudsakligen handlar om lagringstjänster, lutar AWS sig också mot klienter som vill köra sina AI-tjänster på sina servrar.
Företag med mini AI-verktyg som inte kan konfigurera en dedikerad server kan lita på AWS, som erbjuder flexibla lagringsplaner med sina omfattande datacenter. Och servrarna inom dessa centra har chips från Nvidia och AMD, som stärker behoven hos AWS-klienter.
Även om Amazon ännu inte har gjort ett officiellt uttalande, berättade en AWS-chef Reuters att företaget överväger att använda de nya AI-chipsen från AMD för sina framtida behov. Tja, detta beslut var ännu inte slutfört, men det var mer troligt med tanke på att Amazon lade ner Nvidia.
Även om Nvidia fick bättre AI-chips för att köra verktyg som ChatGPT, företaget har enligt uppgift bett molnleverantörerna att ta upp deras DGX Cloud – en webbaserad plattform för att köra AI-verktyg på Nvidias hårdvara på distans.
Även om Oracle accepterade detta erbjudande, tackade AWS nej till detta; eftersom den föredrar att bygga upp sina servrar, alltid. Detta stämmer också överens med AMD:s vd:s uttalande i en intervju med Reuters, där Lisa Su beskrev ett tillvägagångssätt för att erbjuda anpassningsbara tjänster för att vinna stora cloud computing-kunder.