DeepSeek es una nueva herramienta de IA procedente de China que ha causado grandes olas en todo el mundo. Aunque al principio se mencionó como una alternativa a ChatGPT, la empresa ha producido varios modelos más que pueden desplegarse y probarse en un PC personal.
Pueden utilizarse para resumir textos, investigar, generar y depurar código, crear listas de tareas y mucho más.
Puede ser una herramienta excelente para aumentar la productividad personal, crear una solución empresarial o programar una nueva herramienta de software.
En este artículo, aprenderá cómo ejecutar DeepSeek en un Mac, qué herramientas utilizar y qué tareas realizar. También se le presentará un rendimiento general de Mac M4 DeepSeek.
Empecemos.
Qué necesita para ejecutar DeepSeek en Mac
Si quieres sacar el máximo partido a las tareas para tu modelo, debes tener en cuenta varias cosas:
- Un ordenador moderno: el mejor caso es cuando se utiliza Mac M4, aunque otras versiones también son adecuadas para Aprendizaje automático en un Mac
- 16 GB de RAM: También puedes trabajar con 8 GB, pero elige modelos más ligeros. Cuanto mejor sea la memoria, más rápido se ejecutarán tus tareas
- 50 GB de espacio libre
Si tienes todo esto, nada puede impedirte empezar.
¿Cómo ejecutar DeepSeek en un Mac?
Para ejecutar DeepSeek en Mac, necesita una herramienta para trabajar con LLMs creados para macOS. La mejor opción para ejecutar LLM en un Mac es LM Studio. Para elegir entre ellos, sigue estos pasos:
- Descargar LM Studio
- Proceder a la instalación
- Elija el modelo de la lista
- Implantar el modelo
- Ejecutar el modelo
Ahora, repasaremos estos pasos uno por uno
Descargar y configurar la herramienta
LM Studio es la mejor herramienta para ejecutar DeepSeek en Mac. Tiene una interfaz de chat sencilla y permite ejecutar modelos mediante avisos.
Puedes descargar LM Studio desde el sitio oficial e instalarlo en unos sencillos pasos.
Primer paso: Ir a la página Estudio LM y descargar su aplicación:
Segundo paso: Al abrir el archivo descargado en su Mac, el sistema le pedirá que mueva el archivo a la carpeta Aplicaciones:
Paso 3: Busca LM studio en la carpeta Aplicaciones y ábrelo desde allí:
Paso 4. Se le da la bienvenida con la pantalla de incorporación, donde se le ofrece descargar un modelo para un tutorial de Bienvenida. Puede saltarse esta parte haciendo clic en Saltar la incorporación.
Ahora que el proceso ha terminado, puede seguir ejecutando su modelo.
Elija un modelo de la lista
LM Studio está integrado con HuggingFace para que pueda acceder a más de 1 millón de modelos, incluidas más de 9.000 opciones de DeepSeek.
Recuerde que los distintos modelos tienen pesos diferentes, o la potencia de cálculo y el volumen de memoria necesarios para ejecutarlos.
Cuantos más parámetros tenga un modelo, más pesado será. Por ejemplo, el modelo DeepSeek a escala real (el que compite con ChatGPT) utilizaba 671.000 millones (-671B) de parámetros y puede ejecutarse en centros de datos con cientos de GB de RAM.
Los pesos del modelo (o el número de parámetros con los que opera) suelen aparecer en su nombre. Los nombres de modelos bajo el paraguas de DeepSeek tienen las marcas -7B, -8B y -32B.
Dependiendo de tu RAM, puedes elegir modelos más ligeros o más pesados. El factor RAM es crucial aquí, ya que el modelo tendrá que encajar completamente en la memoria de tu GPU si quieres que funcione sin problemas o, al menos, a velocidades utilizables.
Puede seleccionar el modelo 14B con 16 GB de RAM, pero si utiliza las versiones de Mac con 8 GB de RAM, trabaje con los modelos 7B y más ligeros.
Si te conectas a un Mac en la nube con más memoria, podrás seguir ejecutando modelos más pesados en un Mac de 8 GB o en otro ordenador.
Por ejemplo, en RentAMac.io, puede alquilar Macs dedicados de 16 GB en régimen de tiempo compartido. La instalación es rápida y la velocidad es alta, por lo que tienes más libertad para experimentar con distintos pesos de modelo.
He aquí los pasos para seleccione el modelo:
Primer paso: Vaya al botón Buscar del menú de LM Studio.
Segundo paso: Vaya a la barra de búsqueda y escriba el nombre del modelo:
Paso 3: Seleccione el modelo con los pesos que necesita y pulse el botón Descargar:
Descargar el modelo
Tras pulsar el botón Descargar, se inicia el proceso de descarga. Puede tardar hasta un minuto.
Una vez descargado el modelo, pulse el botón Cargar para continuar:
Ejecutar el modelo
Tras pulsar el botón Cargar, se le redirige a la interfaz de chat, donde puede asignar tareas a su modelo y obtener resultados:
Puede realizar una amplia gama de tareas con los modelos DeepSeek ejecutados en su Mac.
Los modelos de DeepSeek son ideales para investigar, aportar ideas, procesar documentos, generar código y depurar.
He aquí varios ejemplos de cómo puede utilizarlos en su trabajo:
Desarrollo de software: generar, probar y depurar el código, obtener asistencia en creación de aplicacionesy mucho más
Escritura y esfera creativa: generar textos, aportar ideas, crear listas de temas para el blog, etc.
Aprender: explicar materiales didácticos a distintos niveles de complejidad (por ejemplo, explicar la computación cuántica a alumnos de cinco grados)
Optimización: creación de horarios de trabajo flexibles para el personal, planificación de actividades, etc.
Rendimiento de DeepSeek en Mac M4
Al hablar del rendimiento de DeepSeek, lo primero que hay que mencionar es que los pequeños modelos 7B no son tan rápidos y capaces como las versiones comerciales que se ejecutan desde centros de datos. Sin embargo, pueden realizar las tareas mencionadas, especialmente cuando se despliegan en potentes dispositivos Mac. El Mac M4 es el campeón de la línea gracias a su potente chip M4.
El rendimiento de DeepSeek del Mac M4 es mejor que el de ordenadores con procesadores menos potentes, por lo que el modelo que ejecutas en el M4 es menos propenso a generar tonterías o a fallar en tus tareas. Mac M4 también promete una ejecución más rápida y flujos de trabajo más fluidos.
Ventajas de ejecutar DeepSeek localmente en Mac
Dado que puede utilizar la herramienta en línea de código abierto DeepSeek, ¿por qué utilizar modelos locales? Hay varias razones:
- PrivacidadModelos locales: los modelos locales no envían los datos a ninguna parte; todo lo que tecleas y generas se almacena exclusivamente en tu ordenador.
- Acceso sin conexión: Puedes trabajar en zonas con mala conectividad o durante vuelos y viajes de larga distancia.
- Sin cuotas de suscripción: obtienes toda la privacidad y flexibilidad gratuitas
- Capacidadfuncionan muy bien con el ámbito de tareas descrito anteriormente
Uno de los efectos secundarios de la creciente Tasa de adopción del ML será la democratización de la IA, o su difusión descendente desde soluciones a gran escala como DeepSeek o ChatGPT hasta soluciones personalizadas ajustadas para uso personal. Ejecutar los modelos de DeepSeek en Mac es un buen ejemplo de esta tendencia y una buena forma de desarrollar habilidades de ML de cara al futuro.
Resumen
Ejecutar los modelos de DeepSeek localmente en su ordenador es una forma estupenda de tener siempre a mano una herramienta de buen rendimiento que le ayude con diferentes tareas. No es necesario pagar cuotas adicionales ni disponer de conexión a Internet para utilizarlos. Además, el rendimiento de DeepSeek en Mac M4 demuestra ser excelente, lo que convierte a esta serie para Mac en una gran opción para democratizar la IA y abrir sus posibilidades a startuperos, equipos pequeños y personas que deseen explorar las posibilidades de la IA de forma privada.
¿Quieres empezar a trabajar, aprender y experimentar con los modelos de DeepSeek inmediatamente?
Alquilar un Mac para maximizar el rendimiento de DeepSeek y obtener los mejores resultados posibles con nuestros potentes Mac minis M4.