Gemma se considera una versión ligera de Gemini. Gemma clásico es un modelo ligero de Google con 2.700 millones de parámetros que puede ejecutarse en ordenadores personales o dispositivos móviles.
El grupo de modelos Gemma es gratuito para uso personal y empresarial y capaz de realizar una amplia gama de tareas, como generación y resumen de textos, procesamiento de imagen a texto, generación de código, depuración, etc.
Las empresas y los particulares lo adoran por sus posibilidades de personalización y sus modestos requisitos de sistema, que permiten obtener resultados de alto rendimiento en ordenadores adquiribles como la serie Mac M.
En este artículo, conocerá los requisitos del sistema, las herramientas y los flujos de trabajo que le permitirán ejecutar Gemma en Mac para alcanzar sus objetivos de IA personales o empresariales.
Comencemos!
Colección de modelos lingüísticos de Gemma
Desde el adopción del aprendizaje automático se ha disparado, empresas como Meta, Google, Mistral y otras han experimentado con las arquitecturas de los modelos para crear soluciones capaces y ligeras, perfectas para particulares y pymes.
La familia de modelos Gemma es uno de esos experimentos. Consta de varias variantes, cada una optimizada para tareas específicas.
He aquí su breve descripción:
Gemma: Esta es la primera versión del modelo, disponible en los parámetros 2B y 7B, entrenado con materiales de matemáticas y contenidos en línea en inglés.
Gemma 2: Se trata de la siguiente generación de modelos Gemma, que se cree que funciona mejor que la primera. Se entrenó con textos en inglés y artículos científicos.
CódigoGemma: CodeGemma está ajustado para tareas de codificación y fue entrenado en los lenguajes de codificación C++, C#, Go, Java, JavaScript, Kotlin, Python y Rust. Hugging Face cuenta con una variante CodeGemma 7B preentrenada para la finalización y generación de código, un modelo 2B preentrenado para la finalización rápida de código y una variante 7B ajustada a las instrucciones para la codificación.
DataGemma es un modelo que complementa sus respuestas con datos de Google Data Commons, un repositorio de datos estadísticos. Los modelos DataGemma utilizan la generación aumentada por recuperación (RAG) para aumentar sus respuestas con datos estadísticos.
PaliGemma es un modelo de visión-lenguaje que acepta imágenes y textos y produce textos ya preparados. Es perfecto para generar descripciones de imágenes, detectar objetos dentro de imágenes o leer texto incrustado.
Cada modelo se presenta en Hugging Face en diversas variaciones preentrenadas, por lo que antes de instalar Gemma en Mac, puede seleccionar el modelo que mejor se adapte a su caso de uso específico.
Requisitos del sistema para ejecutar Gemma en Mac
Para ejecutar Gemma en tu Mac, necesitas lo siguiente:
- Un Mac, preferiblemente de la serie M
- 16 GB de RAM
- 50 GB de almacenamiento
Los ordenadores de la serie Mac M están diseñados para soportar cargas de trabajo de aprendizaje automáticoSin embargo, sigue necesitando una versión con al menos 16 GB de RAM para ejecutar los modelos Gemma 7B o 12B. Los modelos más ligeros, como Gemma 2B o CodeGemma 2B, funcionarán bastante bien en Macs con 8 GB de RAM.
Si necesita un modelo más complejo, puede alquilar un Mac con especificaciones más altas y ejecutar LLM de forma remota. De este modo, puedes ejecutar modelos más pesados aunque tu ordenador no esté diseñado para tareas que requieran una gran capacidad de cálculo.
Herramientas necesarias para la instalación de Gemma en Mac
La mejor herramienta para ejecutar Gemma en Mac es LM Studio. Se trata de una aplicación de nivel principiante en cuanto a su interfaz fácil de usar, pero que permite realizar una amplia gama de tareas con LLM.
LM Studio está integrado con Hugging Face. Puedes descargar cualquier modelo directamente en la app y ejecutarlo desde allí en la interfaz de chat.
Cómo ejecutar Gemma en Mac
Ejecutar Gemma en un Mac requiere varios pasos, que son:
- Descarga LM Studio en tu Mac
- Buscar el modelo Gemma en la lista
- Descargar el modelo seleccionado
- Carga y ejecuta el modelo localmente.
Repasemos detenidamente estos pasos.
Descarga LM Studio en tu Mac
LM Studio tiene un proceso de configuración claro y sencillo, que consta de varios pasos:
Primer paso. Ir a la página oficial Sitio web del estudio LM y descarga la aplicación en tu portátil.
Paso 2. Transfiera la aplicación a la carpeta Aplicaciones para instalarla.
Paso 3. Busca LM Studio en las Aplicaciones y ejecútalo desde allí.
Buscar el modelo Gemma en la lista
En función de su tarea, busque el modelo que necesite en LM Studio. Para la generación de texto, utilice los modelos Gemma base y Gemma 2. Si necesita ayuda para codificar, busque CodeGemma, etc.
Para buscar el modelo, debes seguir estos pasos:
Primer paso. Ve a la barra de búsqueda.
Segundo paso. Escriba el nombre del modelo que necesita en la barra de búsqueda.
Paso 3. Seleccione el modelo con el número de parámetros que necesite.
Descargar el modelo seleccionado
Una vez que encuentre el modelo que necesita, pulse el botón de descarga. La ventana de descarga mostrará el estado del proceso.
Cargar y ejecutar Gemma localmente
En la última etapa del proceso, cargue el modelo.
Tras esto, se inicia la interfaz de chat. En ella, puedes interactuar con Gemma mediante instrucciones y salidas.
Casos de uso de Gemma
Gemma está diseñado para tareas de procesamiento y comprensión del lenguaje natural, por lo que es perfecto para los siguientes casos de uso.
Investigación
Gemma es perfecto para responder preguntas y realizar investigaciones, y la variante DataGemma simplifica el trabajo con datos estadísticos. Las posibilidades de resumen de textos permiten procesar con mayor rapidez trabajos de investigación e informes, así como editar y corregir textos.
Empresas
Las posibilidades de resumen de texto de Gemma permiten generar textos como correos electrónicos, copias de anuncios, publicaciones en redes sociales y otros materiales empresariales.
Desarrollo de software
CodeGemma es un modelo de texto a código que permite a los no técnicos generar código sin experiencia previa. El rendimiento de Mac M4 Gemma permite generar, completar, probar y depurar código sin fricciones. Es una gran herramienta para desarrollar aplicaciones Android o Aplicaciones iOS.
Uso personal
Puede utilizar Gemma para resumir documentos personales, corregir correos electrónicos o responder a preguntas sobre diversos asuntos.
¿Por qué ejecutar Gemma localmente en tu ordenador?
Ejecutar Gemma localmente en su ordenador le proporciona una amplia gama de ventajas, como:
Privacidad: Un modelo local garantiza la privacidad, ya que no comparte datos con terceros.
Acceso sin conexión: Puede ejecutar el modelo descargado de forma autónoma.
Capacidad: Los modelos Llama constituyen una base excelente para diversos casos de uso empresarial, de investigación y de estudio.
Gratis: Puedes guardar tus proyectos, experimentar y obtener grandes resultados sin pagar por usar el modelo.
Resumen
Gemma destaca en tareas como el desarrollo, la generación de textos, la investigación y mucho más. Su diseño eficiente y sus capacidades permiten a cualquier usuario de Mac o empresa sacar partido de los LLM.
Si quieres unirte al carro de la IA y probar las posibilidades de Gemma pero no tienes un ordenador con las especificaciones técnicas necesarias, ¡tenemos la solución!
Puede alquilar un Mac en línea y accede al último Mac M4 con 16 GB de RAM para experimentar sin problemas con los modelos Gemma.