Es difícil decir cuánto afectará a sus resultados finales, pero el nuevo procesador "Halo Strix" de AMD es ahora el mejor sistema para cualquiera que quiera ejecutar un LLM local.
Se puede conseguir uno de estos con 128GB de RAM por alrededor de $1.5k en total y funcionará perfectamente con modelos medianos/grandes como gpt-oss 120B.
Como referencia, una sola Nvidia 5090 ( sin el resto de la PC ) cuesta entre $2-3k y no puede ejecutar ese modelo completo.
Un mac mini con 64GB de RAM cuesta $2k y tampoco puede ejecutar ese modelo completo
Un Mac Studio con 128 GB de RAM puede ejecutarlo, pero cuesta 3.7k
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Es difícil decir cuánto afectará a sus resultados finales, pero el nuevo procesador "Halo Strix" de AMD es ahora el mejor sistema para cualquiera que quiera ejecutar un LLM local.
Se puede conseguir uno de estos con 128GB de RAM por alrededor de $1.5k en total y funcionará perfectamente con modelos medianos/grandes como gpt-oss 120B.
Como referencia, una sola Nvidia 5090 ( sin el resto de la PC ) cuesta entre $2-3k y no puede ejecutar ese modelo completo.
Un mac mini con 64GB de RAM cuesta $2k y tampoco puede ejecutar ese modelo completo
Un Mac Studio con 128 GB de RAM puede ejecutarlo, pero cuesta 3.7k