Ejecutar LLMs localmente ha cambiado las reglas del juego en el mundo de la IA. Recursos como Hugging Face, con acceso gratuito a modelos ligeros, democratizan los LLM, como Llama. Cualquier usuario con un PC modesto, como un Mac, puede ejecutar localmente grandes modelos lingüísticos y obtener un rendimiento excelente.
En esta ocasión, hablaremos de cómo ejecutar Llama en un Mac. Aprenderás todo lo que necesitas sobre especificaciones técnicas, preparación y herramientas para lograr la mejor experiencia mientras ejecutas un modelo.
Empecemos.
Cosas para empezar a usar Llama en tu Mac
Para ejecutar Llama en Mac para tareas como generación de texto, traducción, depuración de código, etc., necesitas al menos:
- Un Mac M4 (la mejor opción, aunque otros Mac de la serie M también son adecuados para aprendizaje automático)
- 16 GB RAM
- 50 GB de espacio libre en tu almacenamiento.
Varios modelos de dispositivos Apple para uso personal, como los MacBook, pueden ejecutar LMM de distintos pesos. Los últimos Mac mini también son excelentes en este tipo de tareas.
Sin embargo, los últimos Mac M4 son los mejores para esta función entre los diferentes modelos. Vienen con configuraciones de 16 GB, 24 GB y 32 GB de RAM, por lo que todos los modelos son adecuados para ejecutar LLM.
¿Cómo ejecutar Llama en Mac?
Empezar con Llama en Mac no es un proceso complicado. Todo lo que tienes que hacer es configurar tus herramientas y elegir la variante del modelo que necesitas. Eso lleva hasta diez minutos en total.
LM Studio es el mejor herramienta para la instalación de Llama en un Mac. Es gratuito, rápido de configurar, se integra con Hugging Face y permite ejecutar modelos en una interfaz de chat amigable.
Estos son los pasos para ejecutar Llama en Mac con LM Studio:
- Descarga LM Studio en tu Mac
- Buscar el modelo Llama en la lista
- Descargar el modelo seleccionado
- Carga y ejecuta el modelo localmente.
A continuación, explicaremos estos pasos con más detalle.
Descarga LM Studio en tu Mac
Ejecutar un LLM con LM Studio es sencillo y sólo requiere unos pocos pasos.
Primer paso. Visita el sitio web oficial de LM Studio y descarga la aplicación en tu portátil.
Paso 2. Al descargarla, tu Mac te pedirá que transfieras la aplicación a la carpeta Aplicaciones.
Paso 3. Busca LM Studio en la carpeta Aplicaciones y ejecútalo desde allí.
Buscar el modelo Llama en la lista
LM Studio está integrado con Hugging Face para que puedas acceder allí a más de 100K modelos de llamas.
Antes de descargar el modelo, debes prestar atención a sus ponderaciones. Los pesos vienen definidos por el número de parámetros que utiliza el modelo. Por ejemplo, el modelo Llama 3 tiene más de 70.000 millones de parámetros, mientras que el Llama 4 tiene 17.000 millones de parámetros activos y 400.000 millones de parámetros totales.
El número de parámetros influye en la sofisticación de las tareas que puede manejar. Además, requiere un volumen considerable de memoria para su uso. Esto significa que puedes ejecutar una versión clásica de 70B Llama desde un centro de datos con procesadores potentes.
Pero deberías usar un modelo más ligero si lo ejecutas desde un Mac. En Hugging Face, puedes encontrar modelos con 7, 8 o 12 mil millones de parámetros. También los hay más pequeños, pero estos funcionan muy bien para el sólido rendimiento del Mac M4 Llama.
Estos son los pasos a seguir para encontrar en la lista el modelo de Llama que necesita:
Primer paso. Ir a la búsqueda.
Segundo paso. Escriba el nombre del modelo que necesita en la barra de búsqueda.
Paso 3. Seleccione el modelo con el número de parámetros que necesite.
Descargar el modelo seleccionado
Cuando decida el modelo que necesita, pulse el botón de descarga. Se abrirá la ventana de descarga, que mostrará el estado del proceso.
Cargar el modelo y ejecutarlo localmente
En la última etapa del proceso, se carga el modelo. A continuación, se inicia la interfaz de chat. En ella puedes escribir preguntas a tu modelo y obtener resultados.
Llama está diseñado para tareas basadas en texto. Es excelente para la generación de textos, la ayuda a la codificación y las traducciones.
¿Por qué ejecutar Llama localmente en tu ordenador?
Hay múltiples razones para ejecutar Llama localmente:
- Privacidad: Un modelo que se ejecuta localmente no comparte tus datos con terceros, por lo que es una opción excelente si te preocupa la privacidad.
- Acceso sin conexión: Puede ejecutar el modelo descargado sin conexión, lo que significa que puede utilizarlo en cualquier lugar.
- Capacidad: Los modelos Llama son bastante capaces de realizar las tareas para las que están diseñados, como traducción, pruebas y generación de código.
- Gratis: puedes guardar tus proyectos, personalizarlos y obtener grandes resultados sin pagar por el uso del modelo.
Resumen
El rendimiento de Mac M4 Llama permite utilizar IA generativa localmente con una velocidad y calidad decentes. Tanto si lo utiliza para investigación, asistencia de codificación o proyectos personales, podrá disfrutar de la capacidad de la tecnología de vanguardia al tiempo que cuida su privacidad.
¿Quieres ejecutar Llama pero no tienes un Mac potente?
Alquile los últimos modelos de Mac a distancia en rentamac.io para acceder a la potencia de cálculo necesaria para disfrutar de las ventajas de ejecutar los LLM localmente.