Don't Miss
All posts tagged "Cerebras Inference"
-
跑贏輝達?|美企AI新方案號稱快輝達20倍
美企Cerebras Systems周二(27日)推出號稱是全球最快的AI解決方案Cerebras Inference。模型輸出速度方面,Llama 3.1-8B為每秒1800個Tokens,據稱比輝達(Nvidia)繪圖處理器(GPU)為基礎的超大規模雲端快20倍。
- Posted August 29, 2024