
Meta公司近日推出了一款名為「LLM Compiler」的新型預訓練模型,該模型基於其現有的Code Llama模型打造,並專注於程式碼最佳化任務。 LLM Compiler的推出標誌著Meta在人工智慧程式設計領域的另一個重要進展,為開發者提供了強大的工具來改善程式碼產生和編譯能力。
LLM Compiler模型在龐大的語料庫上進行了訓練,該語料庫包含了5460億個LLVM-IR(Low Level Virtual Machine Intermediate Representation)和彙編程式碼標記。透過這個訓練過程,LLM Compiler能夠模擬編譯器的功能,對程式碼進行最佳化,甚至將已經過最佳化的程式碼轉換回原本的語言。
Meta表示,儘管業界各大語言模型已在各種程式碼任務中展現出卓越的能力,但在程式碼優化方面仍有進步空間。 LLM Compiler的推出正是為了填補這一空白,為開發者提供更專業且高效的程式碼優化工具。
LLM Compiler模型目前提供了70億參數和130億參數兩個版本,以滿足不同規模和需求的項目。該模型已登陸Hugging Face平台,允許學術及商業使用,為開發者提供了更為靈活和便捷的選擇。
根據Meta介紹,LLM Compiler在訓練過程中展現了高達77%的「程式碼優化潛力」。這意味著該模型能夠顯著提升程式碼的效能和效率,為開發者帶來更出色的程式設計體驗。
此外,LLM Compiler還具有良好的兼容性和可擴充性。開發者可以自由地將該模型與其他AI模型一起使用,從而進一步改善生成程式碼的品質。這項特性使得LLM Compiler成為了一個強大的工具,能夠為各種複雜的程式設計任務提供有力支援。
隨著人工智慧技術的不斷發展,程式碼產生和編譯能力已成為衡量AI程式設計水準的重要指標之一。 Meta推出的LLM Compiler模型將有望在這一領域發揮重要作用,推動AI編程技術的不斷進步和發展。
本內容來自創作者:AI 上傳發布,不代表本網站觀點與立場。转载,请注明出处:https://news.kejixun.com/9831.html