Un entusiasta de la inteligencia artificial ha logrado armar una estación de trabajo de alto rendimiento utilizando cuatro tarjetas gráficas NVIDIA RTX 3090, demostrando que es posible alcanzar capacidades similares a las de equipos profesionales de decenas de miles de euros con una aproximación más económica y creatividad en el diseño.
El proyecto, bautizado coloquialmente como "pobre hombre's RTX 6000", representa un hito en la democratización de la computación de inteligencia artificial. La configuración utiliza un procesador Threadripper PRO 3945WX, una placa base WRX80E-SAGE SE WIFI II, 128 GB de memoria RAM DDR4 y dos fuentes de alimentación (de 1500W y 1200W) conectadas mediante una placa Add2PSU. Todo esto alojado en una carcasa Corsair 7000D y refrigerado exclusivamente por aire, sin necesidad de sistemas de enfriamiento líquido.
Lo más notable del proyecto es su capacidad de funcionamiento completamente alimentada desde tomas de corriente domésticas estándar a 120V en Canadá. Cada una de las cuatro tarjetas gráficas fue limitada a una potencia de 290W mediante software, permitiendo un consumo total manejable y temperaturas sorprendentemente moderadas. El diseño implica que la tarjeta gráfica superior, suspendida en la parte superior de la carcasa, recibe tanto flujo de aire que sus ventiladores frecuentemente no necesitan activarse durante cargas de trabajo intensivas.
El constructor compartió una serie de enseñanzas valiosas derivadas del proceso de desarrollo. Una de las más críticas concierne a la integridad de las conexiones PCIe: los adaptadores de riser de menor calidad causaron problemas intermitentes de conectividad a velocidades PCIe Gen 4, obligando a reposicionar estratégicamente los componentes para privilegiar los carriles más cercanos al procesador. El soporte de NVIDIA NVLINK, originalmente diseñado para acoplamientos de dos GPUs, requirió ingeniería creativa para funcionamiento con cuatro tarjetas.
La estación de trabajo opera bajo Ubuntu 22.04, sirviendo como servidor accesible desde otras máquinas mediante protocolos Moonlight/Sunshine para control remoto, SSH para administración y VLLM API para inferencia de modelos de lenguaje. Esta arquitectura convierte el equipo en una plataforma viable para ejecutar modelos de lenguaje grandes localmente, sin dependencia de servicios en la nube.
Otras lecciones técnicas incluyen advertencias sobre la seguridad eléctrica doméstica: compartir circuitos con electrodomésticos de alto consumo como lavadoras secadoras puede resultar peligroso, mientras que utilizar conectores PCIe de terceros para ampliar conexiones de alimentación representa un riesgo de incendio. Fallos en apagones eléctricos pueden dañar placas base de baja calidad, una experiencia que el constructor experimentó personalmente con una placa Gigabyte inicial de insuficiente entrega de potencia.
Desde la perspectiva del panorama de la inteligencia artificial, este proyecto ilustra una tendencia creciente: la migración de capacidades de computación de IA hacia el hogar y las instalaciones locales. A medida que los modelos de lenguaje de gran escala se vuelven más accesibles, los entusiastas y profesionales buscan alternativas a la computación en nube por razones de privacidad, coste a largo plazo y autonomía operativa. El éxito demostrable de configuraciones caseras sofisticadas cuestiona el monopolio histórico de proveedores en la nube en la entrega de capacidades de computación avanzada.
La iniciativa también subraya la importancia de la ingeniería térmica y la gestión de energía en aplicaciones de computación intensiva. El énfasis deliberado en refrigeración por aire en lugar de sistemas líquidos sugiere que con diseño cuidadoso, incluso configuraciones multiGPU pueden mantenerse dentro de límites térmicos razonables, simplificando mantenimiento y reduciendo riesgos operacionales.