Toolby
← Aramaya dön

Lit-LLaMA

Verimlilik

Implementation of the LLaMA language model based on nanoGPT. Supports flash attention, Int8 and GPTQ 4bit quantization, LoRA and LLaMA-Adapter fine-tuning, pre-training.

Implementation of the LLaMA language model based on nanoGPT. Supports flash attention, Int8 and GPTQ 4bit quantization, LoRA and LLaMA-Adapter fine-tuning, pre-training.

Puanlar

75

Kalite

80

Hız

65

Kullanım Kolaylığı

Bilgiler

FiyatAçık Kaynak (Ücretsiz)
Ücretsiz PlanEvet
Türkçe DestekHayır
Ücretsiz plandaAçık kaynak — tamamen ücretsiz
Son güncelleme2026-03
Web Sitesigithub.com/Lightning-AI/lit-llama

Artılar & Eksiler

Artılar

  • Açık kaynak
  • Ücretsiz
  • Özelleştirilebilir

Eksiler

  • Teknik bilgi gerektirebilir

Bu araç şunları yapabilir:

project listtool

Kullanıcı Yorumları

Yükleniyor...

Giriş yaparak yorum bırakabilirsin

Benzer Araçlar