Difícil dizer quanto isso afetará os lucros deles, mas o novo processador "Halo Strix" da AMD é agora o melhor sistema para quem deseja executar um LLM local.
Pode obter um destes com 128GB de RAM por cerca de 1,5k no total e ele irá correr modelos médios/grandes como o gpt-oss 120B perfeitamente.
Para referência, uma única Nvidia 5090 ( sem o resto do PC) custa entre $2-3k e não pode executar todo esse modelo.
Um mac mini com 64GB de RAM custa $2k e também não consegue executar esse modelo completo.
Um mac studio com 128GB de RAM consegue executá-lo, mas custa 3.7k
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Difícil dizer quanto isso afetará os lucros deles, mas o novo processador "Halo Strix" da AMD é agora o melhor sistema para quem deseja executar um LLM local.
Pode obter um destes com 128GB de RAM por cerca de 1,5k no total e ele irá correr modelos médios/grandes como o gpt-oss 120B perfeitamente.
Para referência, uma única Nvidia 5090 ( sem o resto do PC) custa entre $2-3k e não pode executar todo esse modelo.
Um mac mini com 64GB de RAM custa $2k e também não consegue executar esse modelo completo.
Um mac studio com 128GB de RAM consegue executá-lo, mas custa 3.7k