Hugging Face: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
Строка 31: Строка 31:
 
Финансирование осуществлялось при поддержке [[Salesforce]], а также в нём приняли активное участие [[Google]], [[Amazon]], [[Nvidia]], [[AMD]], [[Intel]], [[IBM]] и [[Qualcomm]]<ref>{{Cite web|last=Leswing|first=Kif|date=2023-08-24|title=Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion|url=https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|access-date=2023-08-24|website=CNBC|language=en|archive-date=2023-08-24|archive-url=https://web.archive.org/web/20230824141538/https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|url-status=live}}</ref>.  
 
Финансирование осуществлялось при поддержке [[Salesforce]], а также в нём приняли активное участие [[Google]], [[Amazon]], [[Nvidia]], [[AMD]], [[Intel]], [[IBM]] и [[Qualcomm]]<ref>{{Cite web|last=Leswing|first=Kif|date=2023-08-24|title=Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion|url=https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|access-date=2023-08-24|website=CNBC|language=en|archive-date=2023-08-24|archive-url=https://web.archive.org/web/20230824141538/https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|url-status=live}}</ref>.  
  
В июне 2024 года компания совместно с [[Meta]] и [[Scaleway]] объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе STATION F в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway<ref>{{Cite web|date=2024-06-25|title=META Collaboration Launches AI Accelerator for European Startups|url=https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|access-date=2024-07-11|website=Yahoo Finance|language=en-US|archive-date=2024-07-11|archive-url=https://web.archive.org/web/20240711201409/https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|url-status=live}}</ref>.  
+
В июне 2024 года компания совместно с [[Meta]] и [[Scaleway]] объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе [[Station F]] в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway<ref>{{Cite web|date=2024-06-25|title=META Collaboration Launches AI Accelerator for European Startups|url=https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|access-date=2024-07-11|website=Yahoo Finance|language=en-US|archive-date=2024-07-11|archive-url=https://web.archive.org/web/20240711201409/https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|url-status=live}}</ref>.  
  
 
23 сентября 2024 года, в рамках [[Международное десятилетие языков коренных народов|Международного десятилетия языков коренных народов]], Hugging Face совместно с [[Meta]] и [[ЮНЕСКО]] запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta [[No Language Left Behind]]. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки<ref>{{Cite web|date=2024-09-23|title=UNESCO Translator Event|url=https://www.unesco.org/en/event/unesco-language-translator-powered-meta-and-hugging-face-launching-event?hub=68184.html}}</ref>.  
 
23 сентября 2024 года, в рамках [[Международное десятилетие языков коренных народов|Международного десятилетия языков коренных народов]], Hugging Face совместно с [[Meta]] и [[ЮНЕСКО]] запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta [[No Language Left Behind]]. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки<ref>{{Cite web|date=2024-09-23|title=UNESCO Translator Event|url=https://www.unesco.org/en/event/unesco-language-translator-powered-meta-and-hugging-face-launching-event?hub=68184.html}}</ref>.  
Строка 41: Строка 41:
 
=== Библиотека Transformers ===
 
=== Библиотека Transformers ===
 
Библиотека Transformers — это пакет Python, содержащий реализации моделей [[Трансформер (модель машинного обучения)|трансформеров]] с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой [[PyTorch,]] но предыдущие версии также были совместимы с библиотеками глубокого обучения [[TensorFlow]] и [[JAX]]. Она включает реализации таких известных моделей, как [[BERT]] и [[GPT-2]]<ref>{{Cite web|title=🤗 Transformers|url=https://huggingface.co/docs/transformers/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-27|archive-url=https://web.archive.org/web/20230927023923/https://huggingface.co/docs/transformers/index|url-status=live}}</ref>. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»<ref>{{cite web|date=Nov 17, 2018|title=First release|url=https://github.com/huggingface/transformers/releases/tag/v0.1.2|access-date=28 March 2023|website=GitHub|archive-date=30 April 2023|archive-url=https://web.archive.org/web/20230430011038/https://github.com/huggingface/transformers/releases/tag/v0.1.2|url-status=live}}</ref>. Также была разработана версия на [[JavaScript]] ([[Transformers.js]]<ref>{{cite web|title=huggingface/transformers.js|url=https://github.com/huggingface/transformers.js|website=GitHub|access-date=2025-06-18|archive-date=2023-03-07|archive-url=https://web.archive.org/web/20230307035125/https://github.com/xenova/transformers.js|url-status=live}}</ref>), позволяющая запускать модели непосредственно в браузере через среду выполнения [[ONNX]].
 
Библиотека Transformers — это пакет Python, содержащий реализации моделей [[Трансформер (модель машинного обучения)|трансформеров]] с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой [[PyTorch,]] но предыдущие версии также были совместимы с библиотеками глубокого обучения [[TensorFlow]] и [[JAX]]. Она включает реализации таких известных моделей, как [[BERT]] и [[GPT-2]]<ref>{{Cite web|title=🤗 Transformers|url=https://huggingface.co/docs/transformers/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-27|archive-url=https://web.archive.org/web/20230927023923/https://huggingface.co/docs/transformers/index|url-status=live}}</ref>. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»<ref>{{cite web|date=Nov 17, 2018|title=First release|url=https://github.com/huggingface/transformers/releases/tag/v0.1.2|access-date=28 March 2023|website=GitHub|archive-date=30 April 2023|archive-url=https://web.archive.org/web/20230430011038/https://github.com/huggingface/transformers/releases/tag/v0.1.2|url-status=live}}</ref>. Также была разработана версия на [[JavaScript]] ([[Transformers.js]]<ref>{{cite web|title=huggingface/transformers.js|url=https://github.com/huggingface/transformers.js|website=GitHub|access-date=2025-06-18|archive-date=2023-03-07|archive-url=https://web.archive.org/web/20230307035125/https://github.com/xenova/transformers.js|url-status=live}}</ref>), позволяющая запускать модели непосредственно в браузере через среду выполнения [[ONNX]].
 +
 +
=== Hugging Face Hub ===
 +
Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения<ref>{{Cite web|title=Hugging Face Hub documentation|url=https://huggingface.co/docs/hub/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-20|archive-url=https://web.archive.org/web/20230920185949/https://huggingface.co/docs/hub/index|url-status=live}}</ref>:
 +
 +
* репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов;
 +
* моделей, также с контролем версий на базе Git;
 +
* наборов данных, в основном текстовых, изображений и аудио;
 +
* веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения.
 +
 +
На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как:
 +
 +
Обработка естественного языка:
 +
 +
* классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста.
 +
 +
Компьютерное зрение:
 +
 +
* классификация изображений, обнаружение объектов и сегментация.
 +
 +
Аудио:
 +
 +
* автоматическое распознавание речи и классификация аудио.
 +
 +
=== Другие библиотеки ===
 +
Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)<ref>{{Cite web|title=Hugging Face - Documentation|url=https://huggingface.co/docs|access-date=2023-02-18|website=huggingface.co|archive-date=2023-09-30|archive-url=https://web.archive.org/web/20230930074626/https://huggingface.co/docs|url-status=live}}</ref>.
  
 
== Примечания ==
 
== Примечания ==

Версия от 21:28, 31 августа 2025

Hugging Face
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
[[Изображение:Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).|thumb||center|none|]]
Основание:
2016
Основатели:
Клеман Деланг, Жюльен Шомон, Томас Вольф
Расположение:
Нью-Йорк, США
Сайт:
huggingface.co
Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).

Ошибка Lua в Модуль:Wikidata на строке 1528: attempt to index field 'wikibase' (a nil value).К:Компании, основанные в 1528 годуК:Компании, упразднённые в 1528 году

Hugging Face, Inc. — американская компания, разрабатывающая инструменты для создания приложений с использованием машинного обучения[1]. Она наиболее известна своей библиотекой Transformers, созданной для приложений обработки естественного языка, и своей платформой, которая позволяет пользователям обмениваться моделями машинного обучения и наборами данных.

История

Основана в 2016 году Клеманом Делангом, Жюльеном Шомоном и Томасом Вольфом первоначально как компания, разрабатывающая приложение для чат-ботов, ориентированное на подростков.[2] Компания была названа в честь эмодзи U+1F917 🤗 ОБНИМАЮЩЕЕ ЛИЦО[2].

После открытия исходного кода модели чат-бота компания сосредоточилась на том, чтобы стать платформой для демократизации машинного обучения.

В марте 2021 года Hugging Face привлекла 40 миллионов долларов в рамках раунда финансирования Series B[3].

28 апреля 2021 года компания запустила семинар BigScience в сотрудничестве с несколькими другими исследовательскими группами.[4] В 2022 году семинар завершился анонсом BLOOM, многоязычной модели со 176 миллиардами параметров.[5]

21 декабря 2021 года компания объявила о приобретении Gradio, программной библиотеки, используемой для создания интерактивных демонстраций моделей машинного обучения в браузере.[6]

5 мая 2022 года компания объявила о раунде финансирования Series C под руководством Coatue и Sequoia.[7] Компания получила оценку в 2 миллиарда долларов.

26 мая 2022 года компания объявила о партнёрстве с Graphcore для оптимизации своей библиотеки Transformers для Graphcore IPU.[8]

3 августа 2022 года компания анонсировала Private Hub, корпоративную версию общедоступного Hugging Face Hub, которая поддерживает SaaS или локальное развёртывание.[9]

В феврале 2023 года компания объявила о партнерстве с Amazon Web Services (AWS), которое позволит клиентам AWS использовать продукты Hugging Face в качестве базовых компонентов для своих приложений. Компания также заявила, что следующее поколение BLOOM будет работать на Trainium — фирменном чипе машинного обучения, разработанном AWS[10][11][12].

В августе 2023 года компания объявила о привлечении 235 миллионов долларов США в рамках раунда финансирования Series D при оценке в 4,5 миллиарда долларов США.

Финансирование осуществлялось при поддержке Salesforce, а также в нём приняли активное участие Google, Amazon, Nvidia, AMD, Intel, IBM и Qualcomm[13].

В июне 2024 года компания совместно с Meta и Scaleway объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена ​​на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе Station F в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway[14].

23 сентября 2024 года, в рамках Международного десятилетия языков коренных народов, Hugging Face совместно с Meta и ЮНЕСКО запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta No Language Left Behind. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки[15].

В апреле 2025 года Hugging Face объявила о приобретении стартапа Pollen Robotics, занимающегося разработкой человекоподобных роботов. Pollen Robotics — французский робототехнический стартап, основанный Матье Лапейром и Пьером Руане в 2016 году[16][17]. В твите X Клеман Деланг, генеральный директор Hugging Face, поделился своим видением создания роботов с искусственным интеллектом с открытым исходным кодом[18].

Сервисы и технологии

Библиотека Transformers

Библиотека Transformers — это пакет Python, содержащий реализации моделей трансформеров с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой PyTorch, но предыдущие версии также были совместимы с библиотеками глубокого обучения TensorFlow и JAX. Она включает реализации таких известных моделей, как BERT и GPT-2[19]. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»[20]. Также была разработана версия на JavaScript (Transformers.js[21]), позволяющая запускать модели непосредственно в браузере через среду выполнения ONNX.

Hugging Face Hub

Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения[22]:

  • репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов;
  • моделей, также с контролем версий на базе Git;
  • наборов данных, в основном текстовых, изображений и аудио;
  • веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения.

На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как:

Обработка естественного языка:

  • классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста.

Компьютерное зрение:

  • классификация изображений, обнаружение объектов и сегментация.

Аудио:

  • автоматическое распознавание речи и классификация аудио.

Другие библиотеки

Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)[23].

Примечания

  1. Hugging Face – The AI community building the future. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 13 ноября 2022 года.
  2. 2,0 2,1 Romain Dillet. Hugging Face wants to become your artificial BFF (амер. англ.). TechCrunch (9 марта 2017). Дата обращения: 14 ноября 2022. Архивировано 25 сентября 2022 года.
  3. Romain Dillet. Hugging Face raises $40 million for its natural language processing library (амер. англ.). TechCrunch (11 марта 2021). Дата обращения: 14 ноября 2022. Архивировано 8 декабря 2022 года.
  4. Inside BigScience, the quest to build a powerful open language model (амер. англ.). VentureBeat (10 января 2022). Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  5. BLOOM. bigscience.huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  6. Gradio is joining Hugging Face! huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  7. Kenrick Cai. The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution (англ.). Forbes. Дата обращения: 14 ноября 2022. Архивировано 3 ноября 2022 года.
  8. Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  9. Introducing the Private Hub: A New Way to Build With Machine Learning. huggingface.co. Дата обращения: 14 ноября 2022. Архивировано 14 ноября 2022 года.
  10. Bass, Dina (2023-02-21). "Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up". Bloomberg News. Архивировано 22 мая 2023. Дата обращения: 22 февраля 2023.
  11. Nellis, Stephen (2023-02-21). "Amazon Web Services pairs with Hugging Face to target AI developers". Reuters. Архивировано 30 мая 2023. Дата обращения: 22 февраля 2023.
  12. AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient | AWS Machine Learning Blog (амер. англ.). aws.amazon.com (21 февраля 2023). Дата обращения: 25 августа 2023. Архивировано 25 августа 2023 года.
  13. Leswing, Kif. Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion (англ.). CNBC (24 августа 2023). Дата обращения: 24 августа 2023. Архивировано 24 августа 2023 года.
  14. META Collaboration Launches AI Accelerator for European Startups (амер. англ.). Yahoo Finance (25 июня 2024). Дата обращения: 11 июля 2024. Архивировано 11 июля 2024 года.
  15. UNESCO Translator Event (23 сентября 2024).
  16. Wiggers, Kyle. Hugging Face buys a humanoid robotics startup (амер. англ.). TechCrunch (14 апреля 2025). Дата обращения: 15 апреля 2025.
  17. Koetsier, John. Open Source Humanoid Robots That You Can 3D Print Yourself: Hugging Face Buys Pollen Robotics (англ.). Forbes. Дата обращения: 15 апреля 2025.
  18. Knight, Will. "An Open Source Pioneer Wants to Unleash Open Source AI Robots". Wired (англ.). ISSN 1059-1028. Дата обращения: 15 апреля 2025.
  19. 🤗 Transformers. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 27 сентября 2023 года.
  20. First release. GitHub (17 ноября 2018). Дата обращения: 28 марта 2023. Архивировано 30 апреля 2023 года.
  21. huggingface/transformers.js. GitHub. Дата обращения: 18 июня 2025. Архивировано 7 марта 2023 года.
  22. Hugging Face Hub documentation. huggingface.co. Дата обращения: 20 августа 2022. Архивировано 20 сентября 2023 года.
  23. Hugging Face - Documentation. huggingface.co. Дата обращения: 18 февраля 2023. Архивировано 30 сентября 2023 года.

Ошибка Lua в Модуль:External_links на строке 409: attempt to index field 'wikibase' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value). Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value).