...

Llama'yı Mac'te Çalıştırma

mac üzerinde llama çalıştır

LLM'leri yerel olarak çalıştırmak, yapay zeka dünyasında oyunun kurallarını değiştirdi. Hafif modellere ücretsiz erişim sağlayan Hugging Face gibi kaynaklar, Llama gibi LLM'leri demokratikleştiriyor. Mac gibi mütevazı bir bilgisayarı olan her kullanıcı, büyük dil modellerini yerel olarak çalıştırabilir ve mükemmel performans elde edebilir. 

Bu sefer, Llama'nın Mac'te nasıl çalıştırılacağını tartışacağız. Bir modeli çalıştırırken en iyi deneyimi elde etmek için teknik özellikler, hazırlık ve araçlar hakkında ihtiyacınız olan her şeyi öğreneceksiniz. 

Hadi başlayalım! 

Mac'inizde Llama kullanmaya başlamak için yapmanız gerekenler

Metin oluşturma, çeviri, kod hata ayıklama gibi görevler için Mac'te Llama'yı çalıştırmak için en az

  • Bir Mac M4 (en iyi seçenek, ancak M serisinin diğer Mac'leri de aşağıdakiler için uygundur makine öğrenimi)
  • 16 GB RAM
  • Depolama alanınızda 50 GB boş alan. 

Birden fazla Apple cihaz modeli MacBook'lar gibi kişisel kullanım için farklı ağırlıklarda LMM'ler çalıştırabilir. En yeni Mac miniler bu tür görevlerde de harikadırlar.

Yine de, en yeni Mac M4'ler farklı modeller arasında bu rol için en iyisidir. 16GB, 24GB ve 32GB RAM konfigürasyonlarıyla geliyorlar, bu nedenle tüm modeller LLM'leri çalıştırmak için uygun.

Mac üzerinde Llama nasıl çalıştırılır? 

Mac'te Llama ile başlamak karmaşık bir süreç değildir. Tek yapmanız gereken araçlarınızı ayarlamak ve ihtiyacınız olan model varyantını seçmek. Bu, toplamda on dakika kadar sürer. 

LM Studio en iyisidir Mac'te Llama kurulumu için araç. Ücretsizdir, kurulumu hızlıdır, Hugging Face ile entegre olur ve modelleri samimi bir sohbet arayüzünde çalıştırmanıza olanak tanır. 

İşte LM Studio ile Mac'te Llama'yı çalıştırma adımları: 

  1. Mac'inize LM Studio'yu indirin
  2. Listeden Llama modelini bulun
  3. Seçilen modeli indirin
  4. Modeli yerel olarak yükleyin ve çalıştırın.

mac üzerinde llama nasıl çalıştırılır

Aşağıda, bu adımları daha ayrıntılı olarak açıklayacağız. 

Mac'inize LM Studio'yu indirin

LM Studio ile bir LLM çalıştırmak basittir ve sadece birkaç adım gerektirir. 

Adım 1. Resmi LM studio web sitesine gidin ve uygulamayı dizüstü bilgisayarınıza indirin. 

lm stüdyosunu indir

Adım 2. İndirdiğinizde Mac'iniz sizden uygulamayı Uygulamalar klasörüne aktarmanızı isteyecektir.

lm studio'yu uygulamalara kaydetme

Adım 3. Applications klasöründe LM Studio'yu bulun ve oradan çalıştırın.

lm stüdyosunu başlat

Listeden Llama modelini bulun

LM Studio, Hugging Face ile entegre edilmiştir, böylece 100 binden fazla Llama modeline buradan erişebilirsiniz. 

Modeli indirmeden önce, ağırlıklarına dikkat etmelisiniz. Ağırlıklar, model tarafından kullanılan parametre sayısına göre tanımlanır. Örneğin, Llama 3 modeli 70 milyardan fazla parametreye sahipken, Llama 4 17 milyar aktif ve 400 milyar toplam parametreye sahiptir. 

Parametre sayısı, üstesinden gelebileceği görevlerin karmaşıklığını etkiler. Ayrıca, kullanmak için önemli miktarda bellek gerektirir. Bu, klasik bir 70B Llama sürümünü güçlü işlemcilere sahip bir veri merkezinden çalıştırabileceğiniz anlamına gelir. 

Ancak bir Mac'ten çalıştırıyorsanız daha hafif bir model kullanmalısınız. Hugging Face'de 7, 8 veya 12 milyar parametreli modeller bulabilirsiniz. Daha küçük olanlar da var, ancak bunlar sağlam Mac M4 Llama performansı için harika çalışıyor. 

İşte listede ihtiyacınız olan Llama modelini bulurken atmanız gereken adımlar: 

Adım 1. Aramaya gidin.

lm stüdyo arama

Adım 2. Arama çubuğuna ihtiyacınız olan modelin adını yazın.

lama arama modeli̇

Adım 3. İhtiyacınız olan parametre sayısına sahip modeli seçin.

lama modeli indir

Seçilen modeli indirin

İhtiyacınız olan modele karar verdiğinizde, indirme düğmesine basın. İndirme penceresi açılacak ve işlemin durumunu gösterecektir.

llama_model indirme işlemi

Modeli yükleyin ve yerel olarak çalıştırın

Sürecin son aşamasında modeli yüklüyorsunuz. Bundan sonra sohbet arayüzü başlatılır. Orada, modelinize istemler yazabilir ve sonuçlar alabilirsiniz.

lama yük modeli̇

Llama metin tabanlı görevler için tasarlanmıştır. Metin oluşturma, kodlama yardımı ve çeviriler için mükemmeldir. 

Llama'yı neden bilgisayarınızda yerel olarak çalıştırmalısınız? 

Llama'yı yerel olarak çalıştırmak için birçok neden vardır: 

  • Gizlilik: Yerel olarak çalışan bir model verilerinizi üçüncü taraflarla paylaşmaz, bu nedenle gizlilik konusunda endişeleriniz varsa mükemmel bir seçimdir. 
  • Çevrimdışı erişim: İndirilen modeli çevrimdışı çalıştırabilirsiniz, bu da onu her yerde kullanabileceğiniz anlamına gelir.
  • Yetenek: Llama modelleri, çeviri, test etme ve kod oluşturma gibi tasarlandıkları görevler için oldukça yeteneklidir. 
  • Ücretsiz: projelerinizi kaydedebilir, özelleştirebilir ve modelin kullanımı için ödeme yapmadan harika sonuçlar elde edebilirsiniz. 

Özetlemek gerekirse 

Mac M4 Llama performansı, üretken yapay zekanın yerel olarak makul hız ve kalitede kullanılmasına olanak tanır. İster araştırma, ister kodlama yardımı veya kişisel projeler için kullanıyor olun, gizliliğinize özen gösterirken en son teknolojinin keyfini çıkarabilirsiniz. 

Llama'yı çalıştırmak istiyorsunuz ama güçlü bir Mac'iniz mi yok? 

En yeni Mac modellerini uzaktan kiralayın rentamac.io LLM'leri yerel olarak çalıştırmanın avantajlarından yararlanmak için gereken bilgi işlem gücüne erişmek için!

Bulutta Mac Kiralama

Bulutta yüksek performanslı bir Mac Mini'ye anında erişim elde edin. Geliştirme, test ve uzaktan çalışma için mükemmel. Donanım gerekmez.

Mac mini M4