Hugging Face

Материал из in.wiki
Перейти к навигации Перейти к поиску
Hugging Face
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
Основание:
2016
Основатели:
Клеман Деланг, Жюльен Шомон, Томас Вольф
Расположение:
Нью-Йорк, США
Сайт:
huggingface.co
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).

Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).К:Компании, основанные в 1528 годуК:Компании, упразднённые в 1528 году

Hugging Face, Inc. — американская компания, разрабатывающая инструменты для создания приложений с использованием машинного обучения[1]. Она наиболее известна своей библиотекой Transformers, созданной для приложений обработки естественного языка, и своей платформой, которая позволяет пользователям обмениваться моделями машинного обучения и наборами данных.

История[править | править код]

Основана в 2016 году Клеманом Делангом, Жюльеном Шомоном и Томасом Вольфом первоначально как компания, разрабатывающая приложение для чат-ботов, ориентированное на подростков.[2] Компания была названа в честь эмодзи U+1F917 🤗 ОБНИМАЮЩЕЕ ЛИЦО[2].

После открытия исходного кода модели чат-бота компания сосредоточилась на том, чтобы стать платформой для демократизации машинного обучения.

В марте 2021 года Hugging Face привлекла 40 миллионов долларов в рамках раунда финансирования Series B[3].

28 апреля 2021 года компания запустила семинар BigScience в сотрудничестве с несколькими другими исследовательскими группами.[4] В 2022 году семинар завершился анонсом BLOOM, многоязычной модели со 176 миллиардами параметров.[5]

21 декабря 2021 года компания объявила о приобретении Gradio, программной библиотеки, используемой для создания интерактивных демонстраций моделей машинного обучения в браузере.[6]

5 мая 2022 года компания объявила о раунде финансирования Series C под руководством Coatue и Sequoia.[7] Компания получила оценку в 2 миллиарда долларов.

26 мая 2022 года компания объявила о партнёрстве с Graphcore для оптимизации своей библиотеки Transformers для Graphcore IPU.[8]

3 августа 2022 года компания анонсировала Private Hub, корпоративную версию общедоступного Hugging Face Hub, которая поддерживает SaaS или локальное развёртывание.[9]

В феврале 2023 года компания объявила о партнерстве с Amazon Web Services (AWS), которое позволит клиентам AWS использовать продукты Hugging Face в качестве базовых компонентов для своих приложений. Компания также заявила, что следующее поколение BLOOM будет работать на Trainium — фирменном чипе машинного обучения, разработанном AWS[10][11][12].

В августе 2023 года компания объявила о привлечении 235 миллионов долларов США в рамках раунда финансирования Series D при оценке в 4,5 миллиарда долларов США.

Финансирование осуществлялось при поддержке Salesforce, а также в нём приняли активное участие Google, Amazon, Nvidia, AMD, Intel, IBM и Qualcomm[13].

В июне 2024 года компания совместно с Meta и Scaleway объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе Station F в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway[14].

23 сентября 2024 года, в рамках Международного десятилетия языков коренных народов, Hugging Face совместно с Meta и ЮНЕСКО запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta No Language Left Behind. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки[15].

В апреле 2025 года Hugging Face объявила о приобретении стартапа Pollen Robotics, занимающегося разработкой человекоподобных роботов. Pollen Robotics — французский робототехнический стартап, основанный Матье Лапейром и Пьером Руане в 2016 году[16][17]. В твите X Клеман Деланг, генеральный директор Hugging Face, поделился своим видением создания роботов с искусственным интеллектом с открытым исходным кодом[18].

Сервисы и технологии[править | править код]

Библиотека Transformers[править | править код]

Библиотека Transformers — это пакет Python, содержащий реализации моделей трансформеров с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой PyTorch, но предыдущие версии также были совместимы с библиотеками глубокого обучения TensorFlow и JAX. Она включает реализации таких известных моделей, как BERT и GPT-2[19]. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»[20]. Также была разработана версия на JavaScript (Transformers.js[21]), позволяющая запускать модели непосредственно в браузере через среду выполнения ONNX.

Hugging Face Hub[править | править код]

Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения[22]:

  • репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов;
  • моделей, также с контролем версий на базе Git;
  • наборов данных, в основном текстовых, изображений и аудио;
  • веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения.

На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как:

Обработка естественного языка:

  • классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста.

Компьютерное зрение:

  • классификация изображений, обнаружение объектов и сегментация.

Аудио:

  • автоматическое распознавание речи и классификация аудио.

Другие библиотеки[править | править код]

Пример пользовательского интерфейса Gradio

Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)[23].

Safetensors[править | править код]

Формат safetensors был разработан примерно в 2021 году для решения проблем с форматом pickle используемых в пакетах Python. Он предназначен для сохранения и загрузки тензоров. По сравнению с форматом pickle, он допускает ленивую загрузку и позволяет избежать проблем безопасности[24]. После аудита безопасности в 2023 году он стал в проектах Huggin Face форматом по умолчанию в 2023 году[25].

Примечания[править | править код]

  1. Hugging Face – The AI community building the future. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 13 ноября 2022 года.
  2. 2,0 2,1 Romain Dillet. Hugging Face wants to become your artificial BFF (амер. англ.). TechCrunch (9 марта 2017). Дата обращения: 14 ноября 2022. Архивировано 25 сентября 2022 года.
  3. Romain Dillet. Hugging Face raises $40 million for its natural language processing library (амер. англ.). TechCrunch (11 марта 2021). Дата обращения: 14 ноября 2022. Архивировано 8 декабря 2022 года.
  4. Inside BigScience, the quest to build a powerful open language model (амер. англ.). VentureBeat (10 января 2022). Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  5. BLOOM. bigscience.huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  6. Gradio is joining Hugging Face! huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  7. Kenrick Cai. The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution (англ.). Forbes. Дата обращения: 14 ноября 2022. Архивировано 3 ноября 2022 года.
  8. Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  9. Introducing the Private Hub: A New Way to Build With Machine Learning. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  10. Bass, Dina (2023-02-21). "Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up". Bloomberg News. Архивировано 22 мая 2023. Дата обращения: 22 февраля 2023.
  11. Nellis, Stephen (2023-02-21). "Amazon Web Services pairs with Hugging Face to target AI developers". Reuters. Архивировано 30 мая 2023. Дата обращения: 22 февраля 2023.
  12. AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient | AWS Machine Learning Blog (амер. англ.). aws.amazon.com (21 февраля 2023). Дата обращения: 25 августа 2023. Архивировано 25 августа 2023 года.
  13. Leswing, Kif. Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion (англ.). CNBC (24 августа 2023). Дата обращения: 24 августа 2023. Архивировано 24 августа 2023 года.
  14. META Collaboration Launches AI Accelerator for European Startups (амер. англ.). Yahoo Finance (25 июня 2024). Дата обращения: 11 июля 2024. Архивировано 11 июля 2024 года.
  15. UNESCO Translator Event (23 сентября 2024).
  16. Wiggers, Kyle. Hugging Face buys a humanoid robotics startup (амер. англ.). TechCrunch (14 апреля 2025). Дата обращения: 15 апреля 2025.
  17. Koetsier, John. Open Source Humanoid Robots That You Can 3D Print Yourself: Hugging Face Buys Pollen Robotics (англ.). Forbes. Дата обращения: 15 апреля 2025.
  18. Ошибка Lua: expandTemplate: template "ref-en-us" does not exist.
  19. 🤗 Transformers. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 27 сентября 2023 года.
  20. First release. GitHub (17 ноября 2018). Дата обращения: 28 марта 2023. Архивировано 30 апреля 2023 года.
  21. huggingface/transformers.js. GitHub. Дата обращения: 18 июня 2025. Архивировано 7 марта 2023 года.
  22. Hugging Face Hub documentation. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 20 сентября 2023 года.
  23. Hugging Face - Documentation. huggingface.co. Дата обращения: 18 февраля 2023. Архивировано 30 сентября 2023 года.
  24. huggingface/safetensors, Hugging Face, 2024-09-21, Дата обращения: 22 сентября 2024
  25. 🐶Safetensors audited as really safe and becoming the default. huggingface.co. Дата обращения: 22 сентября 2024.

Ошибка Lua в Модуль:External_links на строке 409: attempt to index field 'wikibase' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value).