کد لاما آموزشدیده متا بر روی مجموعه دادههای متشکل از، بهاندازه کافی انتظار میرود، قطعههای کد. این شرکت ادعا می کند که Code Llama در معیارهای کدنویسی محبوب مانند HumanEval از رقبای خود جلوتر بود. متا Code Llama را در سه اندازه منتشر می کند: 7 میلیارد پارامتر، 13 میلیارد پارامتر و 34 میلیارد پارامتر. مدل پایینتر برای کارهای کمتقاضا مفید خواهد بود، در حالی که مدل رده بالاتر نیازهای سختافزاری بیشتر و همچنین قابلیتهای بیشتری دارد.
به عنوان مثال، سطح پایه 7B را می توان روی دستگاهی با یک GPU واحد اجرا کرد. برای کارهای کم تاخیر مانند تکمیل کد مناسب است. مدل 13B قابلیت پر کردن در وسط (FIM) کمی قدرتمندتر را ارائه میکند، در حالی که نوع 34B برای کارشناسانی است که به دنبال کمک کد پیشرفته با تولید کد سنگین، درج بلوک و اشکالزدایی هستند – با فرض اینکه سختافزاری برای مدیریت آن دارند. .

علاوه بر این، متا دو نوع دیگر از Code Llama را بر اساس محیط کدنویسی ایجاد کرد. کد لاما پایتون پایتون را هدف قرار می دهد که یکی از کارآمدترین و پرکاربردترین زبان های برنامه نویسی برای وظایف هوش مصنوعی و یادگیری ماشین است. تکرار دیگر Code Llama — Instruct است که برای درخواستهای زبان طبیعی مناسبتر است و هدف آن افراد غیرمتخصصی است که به دنبال تولید کد هستند. البته، کامل نیست، اگرچه متا ادعا می کند که پاسخ های ایمن تری را در مقایسه با رقبا ارائه می دهد. متا Code Llama را در GitHub در کنار یک مقاله تحقیقاتی منتشر کرده است که بررسی عمیق تری را در ابزار هوش مصنوعی مولد مخصوص کد ارائه می دهد.