Llama.cpp: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
Строка 1: Строка 1:
 +
{{Infobox software
 +
| name = llama.cpp
 +
| logo = File:Llama1-logo.svg
 +
| author = [[Георгий Герганов]]
 +
| developer = Георгий Герганов и сообщество
 +
| released = {{Start date and age|2023|3|10}}<ref name="githubrelease"/>
 +
| programming language =  [[C++]], [[C (Язык программирования)|C]]
 +
| genre = [[Библиотека (программирование_|Библиотека]] для [[инференс]]а LLM.
 +
| license = [[MIT License]]<ref name="license"/>
 +
| repo = {{URL|github.com/ggml-org/llama.cpp}}
 +
}}
 +
{{Lowercase title}}
 +
 
'''llama.cpp''' — это библиотека с открытым исходным кодом, которая выполняет [[инференс]] с использованием различных [[Большая языковая модель|больших языковых моделей]], таких как [[Llama]]<ref name="register-llamafile">{{cite web |last1=Connatser |first1=Matthew |title=How this open source LLM chatbot runner hit the gas on x86, Arm CPUs |url=https://www.theregister.com/2024/04/03/llamafile_performance_gains/ |website=theregister.com |access-date=15 April 2024}}</ref>.
 
'''llama.cpp''' — это библиотека с открытым исходным кодом, которая выполняет [[инференс]] с использованием различных [[Большая языковая модель|больших языковых моделей]], таких как [[Llama]]<ref name="register-llamafile">{{cite web |last1=Connatser |first1=Matthew |title=How this open source LLM chatbot runner hit the gas on x86, Arm CPUs |url=https://www.theregister.com/2024/04/03/llamafile_performance_gains/ |website=theregister.com |access-date=15 April 2024}}</ref>.
  

Версия от 01:28, 28 июля 2025

llama.cpp
Язык программирования:
C++, C и C++, C




Разработчик:
Георгий Герганов и сообщество



Дата появления:
март 10, 2023; 2 years ago (2023-03-10)[1]




Лицензия:
MIT License[2]

со строчной буквы

llama.cpp — это библиотека с открытым исходным кодом, которая выполняет инференс с использованием различных больших языковых моделей, таких как Llama[3].

Она разрабатывается совместно с проектом GGML, тензорной библиотекой общего назначения[4].

В состав библиотеки входят инструменты командной строки, а также сервер с простым веб-интерфейсом[5].

Примечания

  1. Ошибка цитирования Неверный тег <ref>; для сносок githubrelease не указан текст
  2. Ошибка цитирования Неверный тег <ref>; для сносок license не указан текст
  3. Connatser, Matthew. How this open source LLM chatbot runner hit the gas on x86, Arm CPUs. theregister.com. Дата обращения: 15 апреля 2024.
  4. Gerganov, Georgi. ggerganov/ggml. GitHub (17 мая 2024).
  5. Mann, Tobias. Intro to speculative decoding: Cheat codes for faster LLMs (англ.). theregister (15 декабря 2024).