Hugging Face: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
w>Oleg4280
(оформление)
 
(не показаны 22 промежуточные версии 10 участников)
Строка 4: Строка 4:
 
| основатели = Клеман Деланг, Жюльен Шомон, Томас Вольф
 
| основатели = Клеман Деланг, Жюльен Шомон, Томас Вольф
 
| расположение = <nowiki>Нью-Йорк, США</nowiki>
 
| расположение = <nowiki>Нью-Йорк, США</nowiki>
| сайт = {{URL|https://huggingface.co//}}
+
| сайт = {{URL|https://huggingface.co}}
 
}}
 
}}
'''Hugging Face''', Inc. — американская компания, разрабатывающая инструменты для создания приложений с использованием [[Машинное обучение|машинного обучения]].<ref>{{Cite web|url=https://huggingface.co/|title=Hugging Face – The AI community building the future.|website=huggingface.co|access-date=2022-11-14}}</ref> Она наиболее известна своей библиотекой Transformers, созданной для [[Компьютерная программа|приложений]] обработки [[Естественный язык|естественного языка]], и своей платформой, которая позволяет пользователям обмениваться моделями машинного обучения и наборами данных.<ref>{{Cite web|url=https://t.me/startupoftheday/2638|title=Стартап дня. Александр Горный.|website=Telegram|access-date=2022-11-14}}</ref>
+
'''Hugging Face''', Inc. — американская компания, разрабатывающая инструменты для создания приложений с использованием [[Машинное обучение|машинного обучения]]<ref>{{Cite web|url=https://huggingface.co/|title=Hugging Face – The AI community building the future.|website=huggingface.co|access-date=2022-11-14|archive-date=2022-11-13|archive-url=https://web.archive.org/web/20221113215026/https://huggingface.co/|url-status=live}}</ref>. Она наиболее известна своей библиотекой [[Transformers]], созданной для [[Компьютерная программа|приложений]] [[Обработка естественного языка|обработки естественного языка]], и своей платформой, которая позволяет пользователям обмениваться [[Модель машинного обучения|моделями машинного обучения]] и [[Набор данных#Набор данных в машинном обучении|наборами данных]].
  
 
== История ==
 
== История ==
Основана в 2016 году Клеманом Делангом, Жюльеном Шомоном и Томасом Вольфом первоначально как компания, разрабатывающая приложение для чат-ботов, ориентированное на [[Подростковый возраст|подростков]].<ref>{{Cite web|lang=en-US|url=https://techcrunch.com/2017/03/09/hugging-face-wants-to-become-your-artificial-bff/|title=Hugging Face wants to become your artificial BFF|author=Romain Dillet|website=TechCrunch|date=2017-03-09|access-date=2022-11-14}}</ref> После открытия исходного кода модели [[Чатбот|чат-бота]] компания сосредоточилась на том, чтобы стать платформой для демократизации машинного обучения.
+
Основана в 2016 году Клеманом Делангом, Жюльеном Шомоном и Томасом Вольфом первоначально как компания, разрабатывающая приложение для чат-ботов, ориентированное на [[Подростковый возраст|подростков]].<ref name=":0">{{Cite web|lang=en-US|url=https://techcrunch.com/2017/03/09/hugging-face-wants-to-become-your-artificial-bff/|title=Hugging Face wants to become your artificial BFF|author=Romain Dillet|website=TechCrunch|date=2017-03-09|access-date=2022-11-14|archive-date=2022-09-25|archive-url=https://web.archive.org/web/20220925012620/https://techcrunch.com/2017/03/09/hugging-face-wants-to-become-your-artificial-bff/|url-status=live}}</ref> Компания была названа в честь [[эмодзи]] U+1F917 🤗 ОБНИМАЮЩЕЕ ЛИЦО<ref name=":0" />.
  
В марте 2021 года Hugging Face привлекла 40 миллионов долларов в рамках раунда финансирования серии B.<ref>{{Cite web|lang=en-US|url=https://techcrunch.com/2021/03/11/hugging-face-raises-40-million-for-its-natural-language-processing-library/|title=Hugging Face raises $40 million for its natural language processing library|author=Romain Dillet|website=TechCrunch|date=2021-03-11|access-date=2022-11-14}}</ref>
+
После открытия исходного кода модели [[Чатбот|чат-бота]] компания сосредоточилась на том, чтобы стать платформой для демократизации машинного обучения.
  
28 апреля 2021 года компания запустила семинар BigScience в сотрудничестве с несколькими другими исследовательскими группами.<ref>{{Cite web|lang=en-US|url=https://venturebeat.com/uncategorized/inside-bigscience-the-quest-to-build-a-powerful-open-language-model/|title=Inside BigScience, the quest to build a powerful open language model|website=VentureBeat|date=2022-01-10|access-date=2022-11-14}}</ref> В 2022 году семинар завершился анонсом BLOOM, многоязычной модели со 176 миллиардами параметров.<ref>{{Cite web|url=https://bigscience.huggingface.co/blog/bloom|title=BLOOM|website=bigscience.huggingface.co|access-date=2022-11-14}}</ref>
+
В марте 2021 года Hugging Face привлекла 40 миллионов долларов в рамках раунда финансирования [[Series B]]<ref>{{Cite web|lang=en-US|url=https://techcrunch.com/2021/03/11/hugging-face-raises-40-million-for-its-natural-language-processing-library/|title=Hugging Face raises $40 million for its natural language processing library|author=Romain Dillet|website=TechCrunch|date=2021-03-11|access-date=2022-11-14|archive-date=2022-12-08|archive-url=https://web.archive.org/web/20221208132550/https://techcrunch.com/2021/03/11/hugging-face-raises-40-million-for-its-natural-language-processing-library/|url-status=live}}</ref>.
  
21 декабря 2021 года компания объявила о приобретении Gradio, [[Библиотека (программирование)|программной библиотеки]], используемой для создания интерактивных демонстраций моделей машинного обучения в [[браузер]]е.<ref>{{Cite web|url=https://huggingface.co/blog/gradio-joins-hf|title=Gradio is joining Hugging Face!|website=huggingface.co|access-date=2022-11-14}}</ref>
+
28 апреля 2021 года компания запустила семинар [[BigScience]] в сотрудничестве с несколькими другими исследовательскими группами.<ref>{{Cite web|lang=en-US|url=https://venturebeat.com/uncategorized/inside-bigscience-the-quest-to-build-a-powerful-open-language-model/|title=Inside BigScience, the quest to build a powerful open language model|website=VentureBeat|date=2022-01-10|access-date=2022-11-14|archive-date=2022-11-14|archive-url=https://web.archive.org/web/20221114122347/https://venturebeat.com/uncategorized/inside-bigscience-the-quest-to-build-a-powerful-open-language-model/|url-status=live}}</ref> В 2022 году семинар завершился анонсом [[BLOOM]], многоязычной модели со 176 миллиардами параметров.<ref>{{Cite web|url=https://bigscience.huggingface.co/blog/bloom|title=BLOOM|website=bigscience.huggingface.co|access-date=2022-11-14|archive-date=2022-11-14|archive-url=https://web.archive.org/web/20221114122342/https://bigscience.huggingface.co/blog/bloom|url-status=live}}</ref>
  
5 мая 2022 года компания объявила о раунде финансирования серии C под руководством Coatue и Sequoia.<ref>{{Cite web|lang=en|url=https://www.forbes.com/sites/kenrickcai/2022/05/09/the-2-billion-emoji-hugging-face-wants-to-be-launchpad-for-a-machine-learning-revolution/|title=The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution|author=Kenrick Cai|website=Forbes|access-date=2022-11-14}}</ref> Компания получила оценку в 2 миллиарда долларов.
+
21 декабря 2021 года компания объявила о приобретении [[Gradio]], [[Библиотека (программирование)|программной библиотеки]], используемой для создания интерактивных демонстраций моделей машинного обучения в [[браузер]]е.<ref>{{Cite web|url=https://huggingface.co/blog/gradio-joins-hf|title=Gradio is joining Hugging Face!|website=huggingface.co|access-date=2022-11-14|archive-date=2022-11-14|archive-url=https://web.archive.org/web/20221114122324/https://huggingface.co/blog/gradio-joins-hf|url-status=live}}</ref>
  
26 мая 2022 года компания объявила о партнёрстве с Graphcore для оптимизации своей библиотеки Transformers для Graphcore IPU.<ref>{{Cite web|url=https://huggingface.co/blog/graphcore-update|title=Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers|website=huggingface.co|access-date=2022-11-14}}</ref>
+
5 мая 2022 года компания объявила о раунде финансирования [[Series C]] под руководством Coatue и Sequoia.<ref>{{Cite web|lang=en|url=https://www.forbes.com/sites/kenrickcai/2022/05/09/the-2-billion-emoji-hugging-face-wants-to-be-launchpad-for-a-machine-learning-revolution/|title=The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution|author=Kenrick Cai|website=Forbes|access-date=2022-11-14|archive-date=2022-11-03|archive-url=https://web.archive.org/web/20221103121236/https://www.forbes.com/sites/kenrickcai/2022/05/09/the-2-billion-emoji-hugging-face-wants-to-be-launchpad-for-a-machine-learning-revolution/|url-status=live}}</ref> Компания получила оценку в 2 миллиарда долларов.
  
3 августа 2022 года компания анонсировала Private Hub, корпоративную версию общедоступного Hugging Face Hub, которая поддерживает SaaS или локальное развёртывание.<ref>{{Cite web|url=https://huggingface.co/blog/introducing-private-hub|title=Introducing the Private Hub: A New Way to Build With Machine Learning|website=huggingface.co|access-date=2022-11-14}}</ref>
+
26 мая 2022 года компания объявила о партнёрстве с [[Graphcore]] для оптимизации своей библиотеки Transformers для [[Graphcore IPU]].<ref>{{Cite web|url=https://huggingface.co/blog/graphcore-update|title=Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers|website=huggingface.co|access-date=2022-11-14|archive-date=2022-11-14|archive-url=https://web.archive.org/web/20221114122342/https://huggingface.co/blog/graphcore-update|url-status=live}}</ref>
 +
 
 +
3 августа 2022 года компания анонсировала [[Private Hub]], корпоративную версию общедоступного [[Hugging Face Hub]], которая поддерживает [[SaaS]] или локальное развёртывание.<ref>{{Cite web|url=https://huggingface.co/blog/introducing-private-hub|title=Introducing the Private Hub: A New Way to Build With Machine Learning|website=huggingface.co|access-date=2022-11-14|archive-date=2022-11-14|archive-url=https://web.archive.org/web/20221114122333/https://huggingface.co/blog/introducing-private-hub|url-status=live}}</ref>
 +
 
 +
В феврале 2023 года компания объявила о партнерстве с [[Amazon Web Services]] (AWS), которое позволит клиентам AWS использовать продукты Hugging Face в качестве базовых компонентов для своих приложений. Компания также заявила, что следующее поколение BLOOM будет работать на [[Trainium]] — фирменном чипе машинного обучения, разработанном AWS<ref>{{cite news|title=Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up|first=Dina|last=Bass|url=https://www.bloomberg.com/news/articles/2023-02-21/amazon-s-aws-joins-with-ai-startup-hugging-face-as-chatgpt-competition-heats-up|work=[[Bloomberg News]]|date=2023-02-21|access-date=2023-02-22|archive-date=2023-05-22|archive-url=https://web.archive.org/web/20230522030130/https://www.bloomberg.com/news/articles/2023-02-21/amazon-s-aws-joins-with-ai-startup-hugging-face-as-chatgpt-competition-heats-up|url-status=live}}</ref><ref>{{cite news|title=Amazon Web Services pairs with Hugging Face to target AI developers|first=Stephen|last=Nellis|url=https://www.reuters.com/technology/amazon-web-services-pairs-with-hugging-face-target-ai-developers-2023-02-21/|work=Reuters|date=2023-02-21|access-date=2023-02-22|archive-date=2023-05-30|archive-url=https://web.archive.org/web/20230530091325/https://www.reuters.com/technology/amazon-web-services-pairs-with-hugging-face-target-ai-developers-2023-02-21/|url-status=live}}</ref><ref>{{Cite web|date=2023-02-21|title=AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient {{!}} AWS Machine Learning Blog|url=https://aws.amazon.com/blogs/machine-learning/aws-and-hugging-face-collaborate-to-make-generative-ai-more-accessible-and-cost-efficient/|access-date=2023-08-25|website=aws.amazon.com|language=en-US|archive-date=2023-08-25|archive-url=https://web.archive.org/web/20230825202343/https://aws.amazon.com/blogs/machine-learning/aws-and-hugging-face-collaborate-to-make-generative-ai-more-accessible-and-cost-efficient/|url-status=live}}</ref>.
 +
 
 +
В августе 2023 года компания объявила о привлечении 235 миллионов долларов США в рамках раунда финансирования [[Series D]] при оценке в 4,5 миллиарда долларов США.
 +
 
 +
Финансирование осуществлялось при поддержке [[Salesforce]], а также в нём приняли активное участие [[Google]], [[Amazon]], [[Nvidia]], [[AMD]], [[Intel]], [[IBM]] и [[Qualcomm]]<ref>{{Cite web|last=Leswing|first=Kif|date=2023-08-24|title=Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion|url=https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|access-date=2023-08-24|website=CNBC|language=en|archive-date=2023-08-24|archive-url=https://web.archive.org/web/20230824141538/https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|url-status=live}}</ref>.
 +
 
 +
В июне 2024 года компания совместно с [[Meta]] и [[Scaleway]] объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе [[Station F]] в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway<ref>{{Cite web|date=2024-06-25|title=META Collaboration Launches AI Accelerator for European Startups|url=https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|access-date=2024-07-11|website=Yahoo Finance|language=en-US|archive-date=2024-07-11|archive-url=https://web.archive.org/web/20240711201409/https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|url-status=live}}</ref>.
 +
 
 +
23 сентября 2024 года, в рамках [[Международное десятилетие языков коренных народов|Международного десятилетия языков коренных народов]], Hugging Face совместно с [[Meta]] и [[ЮНЕСКО]] запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta [[No Language Left Behind]]. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки<ref>{{Cite web|date=2024-09-23|title=UNESCO Translator Event|url=https://www.unesco.org/en/event/unesco-language-translator-powered-meta-and-hugging-face-launching-event?hub=68184.html}}</ref>.
 +
 
 +
В апреле 2025 года Hugging Face объявила о приобретении стартапа [[Pollen Robotics]], занимающегося разработкой человекоподобных роботов. Pollen Robotics — французский робототехнический стартап, основанный Матье Лапейром и Пьером Руане в 2016 году<ref>{{Cite web|last=Wiggers|first=Kyle|date=2025-04-14|title=Hugging Face buys a humanoid robotics startup|url=https://techcrunch.com/2025/04/14/hugging-face-buys-a-humanoid-robotics-startup/|access-date=2025-04-15|website=TechCrunch|language=en-US}}</ref><ref>{{Cite web|last=Koetsier|first=John|title=Open Source Humanoid Robots That You Can 3D Print Yourself: Hugging Face Buys Pollen Robotics|url=https://www.forbes.com/sites/johnkoetsier/2025/04/14/open-source-humanoid-robots-hugging-face-buys-pollen-robotics/|access-date=2025-04-15|website=Forbes|language=en}}</ref>. В твите X Клеман Деланг, генеральный директор Hugging Face, поделился своим видением создания роботов с искусственным интеллектом с открытым исходным кодом<ref>{{Cite magazine|last=Knight|first=Will|title=An Open Source Pioneer Wants to Unleash Open Source AI Robots|url=https://www.wired.com/story/hugging-face-acquires-open-source-robot-startup/|access-date=2025-04-15|magazine=Wired|language=en-US|issn=1059-1028}}</ref>.
 +
 
 +
== Сервисы и технологии ==
 +
 
 +
=== Библиотека Transformers ===
 +
Библиотека Transformers — это пакет Python, содержащий реализации моделей [[Трансформер (модель машинного обучения)|трансформеров]] с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой [[PyTorch,]] но предыдущие версии также были совместимы с библиотеками глубокого обучения [[TensorFlow]] и [[JAX]]. Она включает реализации таких известных моделей, как [[BERT]] и [[GPT-2]]<ref>{{Cite web|title=🤗 Transformers|url=https://huggingface.co/docs/transformers/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-27|archive-url=https://web.archive.org/web/20230927023923/https://huggingface.co/docs/transformers/index|url-status=live}}</ref>. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»<ref>{{cite web|date=Nov 17, 2018|title=First release|url=https://github.com/huggingface/transformers/releases/tag/v0.1.2|access-date=28 March 2023|website=GitHub|archive-date=30 April 2023|archive-url=https://web.archive.org/web/20230430011038/https://github.com/huggingface/transformers/releases/tag/v0.1.2|url-status=live}}</ref>. Также была разработана версия на [[JavaScript]] ([[Transformers.js]]<ref>{{cite web|title=huggingface/transformers.js|url=https://github.com/huggingface/transformers.js|website=GitHub|access-date=2025-06-18|archive-date=2023-03-07|archive-url=https://web.archive.org/web/20230307035125/https://github.com/xenova/transformers.js|url-status=live}}</ref>), позволяющая запускать модели непосредственно в браузере через среду выполнения [[ONNX]].
 +
 
 +
=== Hugging Face Hub ===
 +
Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения<ref>{{Cite web|title=Hugging Face Hub documentation|url=https://huggingface.co/docs/hub/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-20|archive-url=https://web.archive.org/web/20230920185949/https://huggingface.co/docs/hub/index|url-status=live}}</ref>:
 +
 
 +
* репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов;
 +
* моделей, также с контролем версий на базе Git;
 +
* наборов данных, в основном текстовых, изображений и аудио;
 +
* веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения.
 +
 
 +
На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как:
 +
 
 +
Обработка естественного языка:
 +
 
 +
* классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста.
 +
 
 +
Компьютерное зрение:
 +
 
 +
* классификация изображений, обнаружение объектов и сегментация.
 +
 
 +
Аудио:
 +
 
 +
* автоматическое распознавание речи и классификация аудио.
 +
 
 +
=== Другие библиотеки ===
 +
[[File:HiDream-E1-Full with Gradio screenshot.webp|thumb|Пример пользовательского интерфейса Gradio]]
 +
Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)<ref>{{Cite web|title=Hugging Face - Documentation|url=https://huggingface.co/docs|access-date=2023-02-18|website=huggingface.co|archive-date=2023-09-30|archive-url=https://web.archive.org/web/20230930074626/https://huggingface.co/docs|url-status=live}}</ref>.
 +
 
 +
=== Safetensors ===
 +
{{Основная статья|Safetensors}}
 +
Формат safetensors был разработан примерно в 2021 году для решения проблем с форматом [[pickle]] используемых в пакетах Python. Он предназначен для сохранения и загрузки тензоров. По сравнению с форматом pickle, он допускает ленивую загрузку и позволяет избежать проблем безопасности<ref>{{Citation|title=huggingface/safetensors|date=2024-09-21|url=https://github.com/huggingface/safetensors#yet-another-format-|access-date=2024-09-22|publisher=Hugging Face}}</ref>. После аудита безопасности в 2023 году он стал в проектах Huggin Face форматом по умолчанию в 2023 году<ref>{{Cite web|title=🐶Safetensors audited as really safe and becoming the default|url=https://huggingface.co/blog/safetensors-security-audit|access-date=2024-09-22|website=huggingface.co}}</ref>.
  
 
== Примечания ==
 
== Примечания ==
 
{{примечания}}
 
{{примечания}}
  
== Официальный сайт ==
+
{{вс}}
* https://huggingface.co/
+
{{Компании-разработчики ИИ}}
 +
{{Генеративный ИИ}}
  
 
[[Категория:Компании США]]
 
[[Категория:Компании США]]
[[Категория:Компании, основанные в 2016 году]]
+
[[Категория:Компании, основанные в 2016 году]]
 +
[[Категория:Появились в 2016 году в Нью-Йорке]]

Текущая версия от 21:31, 31 августа 2025

Hugging Face
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
Основание:
2016
Основатели:
Клеман Деланг, Жюльен Шомон, Томас Вольф
Расположение:
Нью-Йорк, США
Сайт:
huggingface.co
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).

Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).К:Компании, основанные в 1528 годуК:Компании, упразднённые в 1528 году

Hugging Face, Inc. — американская компания, разрабатывающая инструменты для создания приложений с использованием машинного обучения[1]. Она наиболее известна своей библиотекой Transformers, созданной для приложений обработки естественного языка, и своей платформой, которая позволяет пользователям обмениваться моделями машинного обучения и наборами данных.

История[править | править код]

Основана в 2016 году Клеманом Делангом, Жюльеном Шомоном и Томасом Вольфом первоначально как компания, разрабатывающая приложение для чат-ботов, ориентированное на подростков.[2] Компания была названа в честь эмодзи U+1F917 🤗 ОБНИМАЮЩЕЕ ЛИЦО[2].

После открытия исходного кода модели чат-бота компания сосредоточилась на том, чтобы стать платформой для демократизации машинного обучения.

В марте 2021 года Hugging Face привлекла 40 миллионов долларов в рамках раунда финансирования Series B[3].

28 апреля 2021 года компания запустила семинар BigScience в сотрудничестве с несколькими другими исследовательскими группами.[4] В 2022 году семинар завершился анонсом BLOOM, многоязычной модели со 176 миллиардами параметров.[5]

21 декабря 2021 года компания объявила о приобретении Gradio, программной библиотеки, используемой для создания интерактивных демонстраций моделей машинного обучения в браузере.[6]

5 мая 2022 года компания объявила о раунде финансирования Series C под руководством Coatue и Sequoia.[7] Компания получила оценку в 2 миллиарда долларов.

26 мая 2022 года компания объявила о партнёрстве с Graphcore для оптимизации своей библиотеки Transformers для Graphcore IPU.[8]

3 августа 2022 года компания анонсировала Private Hub, корпоративную версию общедоступного Hugging Face Hub, которая поддерживает SaaS или локальное развёртывание.[9]

В феврале 2023 года компания объявила о партнерстве с Amazon Web Services (AWS), которое позволит клиентам AWS использовать продукты Hugging Face в качестве базовых компонентов для своих приложений. Компания также заявила, что следующее поколение BLOOM будет работать на Trainium — фирменном чипе машинного обучения, разработанном AWS[10][11][12].

В августе 2023 года компания объявила о привлечении 235 миллионов долларов США в рамках раунда финансирования Series D при оценке в 4,5 миллиарда долларов США.

Финансирование осуществлялось при поддержке Salesforce, а также в нём приняли активное участие Google, Amazon, Nvidia, AMD, Intel, IBM и Qualcomm[13].

В июне 2024 года компания совместно с Meta и Scaleway объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе Station F в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway[14].

23 сентября 2024 года, в рамках Международного десятилетия языков коренных народов, Hugging Face совместно с Meta и ЮНЕСКО запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta No Language Left Behind. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки[15].

В апреле 2025 года Hugging Face объявила о приобретении стартапа Pollen Robotics, занимающегося разработкой человекоподобных роботов. Pollen Robotics — французский робототехнический стартап, основанный Матье Лапейром и Пьером Руане в 2016 году[16][17]. В твите X Клеман Деланг, генеральный директор Hugging Face, поделился своим видением создания роботов с искусственным интеллектом с открытым исходным кодом[18].

Сервисы и технологии[править | править код]

Библиотека Transformers[править | править код]

Библиотека Transformers — это пакет Python, содержащий реализации моделей трансформеров с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой PyTorch, но предыдущие версии также были совместимы с библиотеками глубокого обучения TensorFlow и JAX. Она включает реализации таких известных моделей, как BERT и GPT-2[19]. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»[20]. Также была разработана версия на JavaScript (Transformers.js[21]), позволяющая запускать модели непосредственно в браузере через среду выполнения ONNX.

Hugging Face Hub[править | править код]

Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения[22]:

  • репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов;
  • моделей, также с контролем версий на базе Git;
  • наборов данных, в основном текстовых, изображений и аудио;
  • веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения.

На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как:

Обработка естественного языка:

  • классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста.

Компьютерное зрение:

  • классификация изображений, обнаружение объектов и сегментация.

Аудио:

  • автоматическое распознавание речи и классификация аудио.

Другие библиотеки[править | править код]

Пример пользовательского интерфейса Gradio

Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)[23].

Safetensors[править | править код]

Формат safetensors был разработан примерно в 2021 году для решения проблем с форматом pickle используемых в пакетах Python. Он предназначен для сохранения и загрузки тензоров. По сравнению с форматом pickle, он допускает ленивую загрузку и позволяет избежать проблем безопасности[24]. После аудита безопасности в 2023 году он стал в проектах Huggin Face форматом по умолчанию в 2023 году[25].

Примечания[править | править код]

  1. Hugging Face – The AI community building the future. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 13 ноября 2022 года.
  2. 2,0 2,1 Romain Dillet. Hugging Face wants to become your artificial BFF (амер. англ.). TechCrunch (9 марта 2017). Дата обращения: 14 ноября 2022. Архивировано 25 сентября 2022 года.
  3. Romain Dillet. Hugging Face raises $40 million for its natural language processing library (амер. англ.). TechCrunch (11 марта 2021). Дата обращения: 14 ноября 2022. Архивировано 8 декабря 2022 года.
  4. Inside BigScience, the quest to build a powerful open language model (амер. англ.). VentureBeat (10 января 2022). Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  5. BLOOM. bigscience.huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  6. Gradio is joining Hugging Face! huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  7. Kenrick Cai. The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution (англ.). Forbes. Дата обращения: 14 ноября 2022. Архивировано 3 ноября 2022 года.
  8. Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  9. Introducing the Private Hub: A New Way to Build With Machine Learning. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  10. Bass, Dina (2023-02-21). "Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up". Bloomberg News. Архивировано 22 мая 2023. Дата обращения: 22 февраля 2023.
  11. Nellis, Stephen (2023-02-21). "Amazon Web Services pairs with Hugging Face to target AI developers". Reuters. Архивировано 30 мая 2023. Дата обращения: 22 февраля 2023.
  12. AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient | AWS Machine Learning Blog (амер. англ.). aws.amazon.com (21 февраля 2023). Дата обращения: 25 августа 2023. Архивировано 25 августа 2023 года.
  13. Leswing, Kif. Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion (англ.). CNBC (24 августа 2023). Дата обращения: 24 августа 2023. Архивировано 24 августа 2023 года.
  14. META Collaboration Launches AI Accelerator for European Startups (амер. англ.). Yahoo Finance (25 июня 2024). Дата обращения: 11 июля 2024. Архивировано 11 июля 2024 года.
  15. UNESCO Translator Event (23 сентября 2024).
  16. Wiggers, Kyle. Hugging Face buys a humanoid robotics startup (амер. англ.). TechCrunch (14 апреля 2025). Дата обращения: 15 апреля 2025.
  17. Koetsier, John. Open Source Humanoid Robots That You Can 3D Print Yourself: Hugging Face Buys Pollen Robotics (англ.). Forbes. Дата обращения: 15 апреля 2025.
  18. Knight, Will. "An Open Source Pioneer Wants to Unleash Open Source AI Robots". Wired (англ.). ISSN 1059-1028. Дата обращения: 15 апреля 2025.
  19. 🤗 Transformers. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 27 сентября 2023 года.
  20. First release. GitHub (17 ноября 2018). Дата обращения: 28 марта 2023. Архивировано 30 апреля 2023 года.
  21. huggingface/transformers.js. GitHub. Дата обращения: 18 июня 2025. Архивировано 7 марта 2023 года.
  22. Hugging Face Hub documentation. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 20 сентября 2023 года.
  23. Hugging Face - Documentation. huggingface.co. Дата обращения: 18 февраля 2023. Архивировано 30 сентября 2023 года.
  24. huggingface/safetensors, Hugging Face, 2024-09-21, Дата обращения: 22 сентября 2024
  25. 🐶Safetensors audited as really safe and becoming the default. huggingface.co. Дата обращения: 22 сентября 2024.

Ошибка Lua в Модуль:External_links на строке 409: attempt to index field 'wikibase' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value).