Строка 31: |
Строка 31: |
| Финансирование осуществлялось при поддержке [[Salesforce]], а также в нём приняли активное участие [[Google]], [[Amazon]], [[Nvidia]], [[AMD]], [[Intel]], [[IBM]] и [[Qualcomm]]<ref>{{Cite web|last=Leswing|first=Kif|date=2023-08-24|title=Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion|url=https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|access-date=2023-08-24|website=CNBC|language=en|archive-date=2023-08-24|archive-url=https://web.archive.org/web/20230824141538/https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|url-status=live}}</ref>. | | Финансирование осуществлялось при поддержке [[Salesforce]], а также в нём приняли активное участие [[Google]], [[Amazon]], [[Nvidia]], [[AMD]], [[Intel]], [[IBM]] и [[Qualcomm]]<ref>{{Cite web|last=Leswing|first=Kif|date=2023-08-24|title=Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion|url=https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|access-date=2023-08-24|website=CNBC|language=en|archive-date=2023-08-24|archive-url=https://web.archive.org/web/20230824141538/https://www.cnbc.com/2023/08/24/google-amazon-nvidia-amd-other-tech-giants-invest-in-hugging-face.html|url-status=live}}</ref>. |
| | | |
− | В июне 2024 года компания совместно с [[Meta]] и [[Scaleway]] объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе STATION F в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway<ref>{{Cite web|date=2024-06-25|title=META Collaboration Launches AI Accelerator for European Startups|url=https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|access-date=2024-07-11|website=Yahoo Finance|language=en-US|archive-date=2024-07-11|archive-url=https://web.archive.org/web/20240711201409/https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|url-status=live}}</ref>. | + | В июне 2024 года компания совместно с [[Meta]] и [[Scaleway]] объявила о запуске новой программы ИИ-акселератора для европейских стартапов. Эта инициатива направлена на помощь стартапам в интеграции моделей Open Foundation в свои продукты, ускоряя развитие экосистемы ИИ в ЕС. Программа, базирующаяся на платформе [[Station F]] в Париже, будет действовать с сентября 2024 года по февраль 2025 года. Отобранные стартапы получат наставничество, доступ к моделям и инструментам ИИ, а также к вычислительным мощностям Scaleway<ref>{{Cite web|date=2024-06-25|title=META Collaboration Launches AI Accelerator for European Startups|url=https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|access-date=2024-07-11|website=Yahoo Finance|language=en-US|archive-date=2024-07-11|archive-url=https://web.archive.org/web/20240711201409/https://finance.yahoo.com/news/meta-collaboration-launches-ai-accelerator-151500146.html|url-status=live}}</ref>. |
| | | |
| 23 сентября 2024 года, в рамках [[Международное десятилетие языков коренных народов|Международного десятилетия языков коренных народов]], Hugging Face совместно с [[Meta]] и [[ЮНЕСКО]] запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta [[No Language Left Behind]]. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки<ref>{{Cite web|date=2024-09-23|title=UNESCO Translator Event|url=https://www.unesco.org/en/event/unesco-language-translator-powered-meta-and-hugging-face-launching-event?hub=68184.html}}</ref>. | | 23 сентября 2024 года, в рамках [[Международное десятилетие языков коренных народов|Международного десятилетия языков коренных народов]], Hugging Face совместно с [[Meta]] и [[ЮНЕСКО]] запустили новый онлайн-переводчик языков, основанный на открытой модели ИИ Meta [[No Language Left Behind]]. Он позволяет осуществлять бесплатный перевод текста на 200 языков, включая многие малоресурсные языки<ref>{{Cite web|date=2024-09-23|title=UNESCO Translator Event|url=https://www.unesco.org/en/event/unesco-language-translator-powered-meta-and-hugging-face-launching-event?hub=68184.html}}</ref>. |
Строка 41: |
Строка 41: |
| === Библиотека Transformers === | | === Библиотека Transformers === |
| Библиотека Transformers — это пакет Python, содержащий реализации моделей [[Трансформер (модель машинного обучения)|трансформеров]] с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой [[PyTorch,]] но предыдущие версии также были совместимы с библиотеками глубокого обучения [[TensorFlow]] и [[JAX]]. Она включает реализации таких известных моделей, как [[BERT]] и [[GPT-2]]<ref>{{Cite web|title=🤗 Transformers|url=https://huggingface.co/docs/transformers/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-27|archive-url=https://web.archive.org/web/20230927023923/https://huggingface.co/docs/transformers/index|url-status=live}}</ref>. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»<ref>{{cite web|date=Nov 17, 2018|title=First release|url=https://github.com/huggingface/transformers/releases/tag/v0.1.2|access-date=28 March 2023|website=GitHub|archive-date=30 April 2023|archive-url=https://web.archive.org/web/20230430011038/https://github.com/huggingface/transformers/releases/tag/v0.1.2|url-status=live}}</ref>. Также была разработана версия на [[JavaScript]] ([[Transformers.js]]<ref>{{cite web|title=huggingface/transformers.js|url=https://github.com/huggingface/transformers.js|website=GitHub|access-date=2025-06-18|archive-date=2023-03-07|archive-url=https://web.archive.org/web/20230307035125/https://github.com/xenova/transformers.js|url-status=live}}</ref>), позволяющая запускать модели непосредственно в браузере через среду выполнения [[ONNX]]. | | Библиотека Transformers — это пакет Python, содержащий реализации моделей [[Трансформер (модель машинного обучения)|трансформеров]] с открытым исходным кодом для задач обработки текста, изображений и звука. Она в основном совместима с библиотекой [[PyTorch,]] но предыдущие версии также были совместимы с библиотеками глубокого обучения [[TensorFlow]] и [[JAX]]. Она включает реализации таких известных моделей, как [[BERT]] и [[GPT-2]]<ref>{{Cite web|title=🤗 Transformers|url=https://huggingface.co/docs/transformers/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-27|archive-url=https://web.archive.org/web/20230927023923/https://huggingface.co/docs/transformers/index|url-status=live}}</ref>. Изначально библиотека называлась «pytorch-pretrained-bert», затем была переименована в «pytorch-transformers», а затем в «transformers»<ref>{{cite web|date=Nov 17, 2018|title=First release|url=https://github.com/huggingface/transformers/releases/tag/v0.1.2|access-date=28 March 2023|website=GitHub|archive-date=30 April 2023|archive-url=https://web.archive.org/web/20230430011038/https://github.com/huggingface/transformers/releases/tag/v0.1.2|url-status=live}}</ref>. Также была разработана версия на [[JavaScript]] ([[Transformers.js]]<ref>{{cite web|title=huggingface/transformers.js|url=https://github.com/huggingface/transformers.js|website=GitHub|access-date=2025-06-18|archive-date=2023-03-07|archive-url=https://web.archive.org/web/20230307035125/https://github.com/xenova/transformers.js|url-status=live}}</ref>), позволяющая запускать модели непосредственно в браузере через среду выполнения [[ONNX]]. |
| + | |
| + | === Hugging Face Hub === |
| + | Hugging Face Hub — это платформа (централизованный веб-сервис) для размещения<ref>{{Cite web|title=Hugging Face Hub documentation|url=https://huggingface.co/docs/hub/index|access-date=2022-08-20|website=huggingface.co|archive-date=2023-09-20|archive-url=https://web.archive.org/web/20230920185949/https://huggingface.co/docs/hub/index|url-status=live}}</ref>: |
| + | |
| + | * репозиториев кода на базе Git, включая обсуждения и запросы на извлечение для проектов; |
| + | * моделей, также с контролем версий на базе Git; |
| + | * наборов данных, в основном текстовых, изображений и аудио; |
| + | * веб-приложений («пространства» и «виджеты»), предназначенных для небольших демонстраций приложений машинного обучения. |
| + | |
| + | На платформе присутствует множество предобученных моделей, которые поддерживают распространённые задачи в различных модальностях, таких как: |
| + | |
| + | Обработка естественного языка: |
| + | |
| + | * классификация текста, распознавание именованных сущностей, ответы на вопросы, моделирование языка, реферирование, перевод, множественный выбор и генерация текста. |
| + | |
| + | Компьютерное зрение: |
| + | |
| + | * классификация изображений, обнаружение объектов и сегментация. |
| + | |
| + | Аудио: |
| + | |
| + | * автоматическое распознавание речи и классификация аудио. |
| + | |
| + | === Другие библиотеки === |
| + | Помимо Transformers и Hugging Face Hub, экосистема Hugging Face включает библиотеки для других задач, таких как обработка наборов данных («Datasets»), оценка моделей («Evaluate»), генерация изображений («Diffusers») и демонстрационные примеры машинного обучения («Gradio»)<ref>{{Cite web|title=Hugging Face - Documentation|url=https://huggingface.co/docs|access-date=2023-02-18|website=huggingface.co|archive-date=2023-09-30|archive-url=https://web.archive.org/web/20230930074626/https://huggingface.co/docs|url-status=live}}</ref>. |
| | | |
| == Примечания == | | == Примечания == |