Qualcomm: Lanceert AI200 en AI250 - Concurrentie NVIDIA in datacenter-AI - Implicaties
Qualcomm $QCOM heeft twee nieuwe AI-versnellers aangekondigd, de AI200 en AI250, waarmee het bedrijf zich rechtstreeks positioneert tegenover $NVDA in de markt voor datacenter-AI. De AI200 wordt in 2026 op de markt verwacht, terwijl de AI250 in 2027 zal volgen.
- AI200 en AI250 leveren rack-scale prestaties en superieure geheugencapaciteit voor generatieve AI-inferentie met een lage total cost of ownership (TCO).
- De AI250 introduceert een innovatieve geheugenarchitectuur met tot 10x hogere effectieve geheugenbandbreedte en aanzienlijk lagere energieconsumptie.
- Qualcomm plant een jaarlijkse productcyclus voor zijn datacenter-AI-roadmap.
De nieuwe chips zijn ontworpen om grote taalmodellen (LLM) en multimodale modellen efficiënter te draaien. Ze ondersteunen tot 768 GB LPDDR-geheugen per kaart, beschikken over directe vloeistofkoeling en zijn schaalbaar via PCIe en Ethernet.
De AI200 richt zich op lage kosten per watt, terwijl de AI250 met een near-memory computing-architectuur een structurele sprong maakt in geheugenefficiëntie.
Investment view
Disclaimer Aan de door ons opgestelde informatie kan op geen enkele wijze rechten worden ontleend. Alle door ons verstrekte informatie en analyses zijn geheel vrijblijvend. Alle consequenties van het op welke wijze dan ook toepassen van de informatie blijven volledig voor uw eigen rekening.
Wij aanvaarden geen aansprakelijkheid voor de mogelijke gevolgen of schade die zouden kunnen voortvloeien uit het gebruik van de door ons gepubliceerde informatie. U bent zelf eindverantwoordelijk voor de beslissingen die u neemt met betrekking tot uw beleggingen.