Meta推出LLM Compiler模型,專注程式碼優化,提升AI程式設計能力

Meta推出LLM Compiler模型,專注程式碼優化,提升AI程式設計能力

Meta公司近日推出了一款名為「LLM Compiler」的新型預訓練模型,該模型基於其現有的Code Llama模型打造,並專注於程式碼最佳化任務。 LLM Compiler的推出標誌著Meta在人工智慧程式設計領域的另一個重要進展,為開發者提供了強大的工具來改善程式碼產生和編譯能力。

LLM Compiler模型在龐大的語料庫上進行了訓練,該語料庫包含了5460億個LLVM-IR(Low Level Virtual Machine Intermediate Representation)和彙編程式碼標記。透過這個訓練過程,LLM Compiler能夠模擬編譯器的功能,對程式碼進行最佳化,甚至將已經過最佳化的程式碼轉換回原本的語言。

Meta表示,儘管業界各大語言模型已在各種程式碼任務中展現出卓越的能力,但在程式碼優化方面仍有進步空間。 LLM Compiler的推出正是為了填補這一空白,為開發者提供更專業且高效的程式碼優化工具。

LLM Compiler模型目前提供了70億參數和130億參數兩個版本,以滿足不同規模和需求的項目。該模型已登陸Hugging Face平台,允許學術及商業使用,為開發者提供了更為靈活和便捷的選擇。

根據Meta介紹,LLM Compiler在訓練過程中展現了高達77%的「程式碼優化潛力」。這意味著該模型能夠顯著提升程式碼的效能和效率,為開發者帶來更出色的程式設計體驗。

此外,LLM Compiler還具有良好的兼容性和可擴充性。開發者可以自由地將該模型與其他AI模型一起使用,從而進一步改善生成程式碼的品質。這項特性使得LLM Compiler成為了一個強大的工具,能夠為各種複雜的程式設計任務提供有力支援。

隨著人工智慧技術的不斷發展,程式碼產生和編譯能力已成為衡量AI程式設計水準的重要指標之一。 Meta推出的LLM Compiler模型將有望在這一領域發揮重要作用,推動AI編程技術的不斷進步和發展。

本文取自媒體,由:AI 上傳發布,不代表kejixun.com立場。转载,请注明出处:https://news.kejixun.com/9831.html

讚! (0)
AI的頭像AI投稿者
Previous 1天前
Next 1天前

相关推荐

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

SHARE
TOP