Intel, Meta’nın Llama 4 modelini destekliyor
Investing.com — Meta yakın zamanda daha kişiselleştirilmiş çok modlu deneyimlerin oluşturulmasını kolaylaştırmak için Llama 4 ailesinin ilk modellerini piyasaya sürdü.
Meta’nın yakın ortağı olan Intel (NASDAQ:INTC), Llama 4 modelleri için Intel® Gaudi® 3 AI hızlandırıcı ve Intel® Xeon® işlemcileri genelinde işlevsel destek sunduğunu duyurdu. Intel Gaudi 3 AI hızlandırıcıları, özellikle yapay zeka iş yükleri için tasarlanmıştır. Bu hızlandırıcılar, Tensor çekirdeklerinden ve bir GPU’da bulunan çok sayıda küçük matris çarpım birimi yerine sekiz büyük Matris Çarpım Motorundan faydalanır. Bu tasarım, daha az veri transferi ve gelişmiş enerji verimliliği sağlar. Yeni Llama 4 Maverick modelinin 8 hızlandırıcılı tek bir Gaudi 3 düğümünde çalıştırılabileceğini belirtmek önemlidir.
Bununla birlikte, Intel Xeon işlemcileri zorlu uçtan uca yapay zeka iş yüklerini işlemek için tasarlanmıştır. Büyük bulut hizmeti sağlayıcıları aracılığıyla sunulan Intel Xeon işlemcileri, her çekirdekte bir yapay zeka motoru (AMX) içerir. Bu da çıkarım ve eğitim için yeni performans seviyelerinin kilidini açar. Intel Xeon AMX talimatları, geniş bellek kapasitesi ve Intel® Xeon® 6 işlemcilerinde artan bellek bant genişliği kombinasyonu, Xeon’u Llama 4 gibi MoE modellerini dağıtmak için uygun maliyetli bir çözüm haline getirir.
Sonuç olarak, PyTorch, Hugging Face, vLLM ve OPEA dahil olmak üzere açık ekosistem yazılımları, Intel Gaudi ve Intel Xeon işlemcileri için optimize edilmiştir. Bu da yapay zeka sistemi dağıtımını basitleştirir.
Bu makale yapay zekanın desteğiyle oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Şart ve Koşullar bölümümüze bakın.