Hugging Face

Summary

Hugging Face, Inc. es una empresa estadounidense que desarrolla herramientas para crear aplicaciones utilizando el aprendizaje automático.[1]​ Es conocida por su biblioteca de transformadores creada para aplicaciones de procesamiento de lenguaje natural y su plataforma que permite a los usuarios compartir conjuntos de datos y modelos de aprendizaje automático.[2]

Hugging Face
Información de publicación
Creador Clément Delangue, Julien Chaumond y Thomas Wolf

Tipo negocio y comunidad virtual
Campo aprendizaje automático
Sede central Brooklyn (Estados Unidos) y París (Francia)
Productos modelos de IA, conjuntos de datos
Ingresos 15 000 000 dólares estadounidenses
Empleados 170
Miembro de BigScience Research Workshop y DataCite
Filiales Hugging Face SAS
Sitio web huggingface.co

Historia

editar

La empresa fue fundada en 2016 por los franceses Clément Delangue[N 1]​, Julien Chaumond y Thomas Wolf, originalmente como una organización que desarrollaba una aplicación de chatbot dirigida a adolescentes.[3]​ Después de abrir el modelo detrás del chatbot, la empresa hizo un giro para centrarse en el cometido de ser una plataforma para el aprendizaje automático. Su campo de acción es el procesamiento del lenguaje natural (NLP), también se centra en otras áreas del aprendizaje automático (ML), como la visión de máquina (Machine Vision), el aprendizaje por refuerzo (Reinforcement Learning) o el aprendizaje supervisado (Supervised Learning).

  • En marzo de 2021 Hugging Face recaudó $ 40 millones en una ronda de financiación de la Serie B.[4]
  • El 28 de abril de 2021 la compañía lanzó el taller de investigación BigScience en colaboración con varios otros grupos de investigación para lanzar un modelo grande de lenguaje abierto.[5]​ En 2022, el taller concluyó con el anuncio de BLOOM, un modelo de lenguaje grande multilingüe con 176 mil millones de parámetros.[6]
  • El 21 de diciembre de 2021 la empresa anunció la adquisición de Gradio, una biblioteca de software que se utiliza para realizar demostraciones interactivas de navegador de modelos de aprendizaje automático.[7]
  • El 5 de mayo de 2022 anunció su ronda de financiación Serie C liderada por Coatue y Sequoia.[8]​ La compañía recibió una valoración de $ 2 mil millones.
  • El 13 de mayo de 2022 presentó su Programa de estudiantes embajadores (Student Ambassador Program) para ayudar a cumplir su objetivo de enseñar aprendizaje automático a 5 millones de personas para 2023.[9]
  • El 26 de mayo de 2022 anunció una asociación con Graphcore para optimizar su biblioteca de Transformers para Graphcore IPU.[10]
  • El 3 de agosto de 2022 anunció Private Hub, una versión empresarial de su Hugging Face Hub público que admite SaaS o implementación local.[11]
  • En febrero de 2023 anunció una asociación con Amazon Web Services (AWS) que permitiría que los productos de Hugging Face estén disponibles para los clientes de AWS para usarlos como componentes básicos para sus aplicaciones personalizadas.[12]​ La compañía también dijo que la próxima generación de BLOOM se ejecutará en Trainium, un chip de aprendizaje automático patentado creado por AWS.[13][14]
  • Mayo de 2023: Hugging Face y ServiceNow se asociaron para desarrollar StarCoder, un nuevo modelo de lenguaje de código abierto. El modelo creado como parte de la Iniciativa BigCode es una versión mejorada del modelo StarCoderBase entrenado en 35 mil millones de tokens de Python. StarCoder es un sistema gratuito de generación de código de IA alternativo a Copilot de GitHub, AlphaCode de DeepMind y CodeWhisperer de Amazon.[15]

Hugging Face Hub

editar

El Hugging Face Hub es una plataforma (servicio web centralizado) que aloja, según sus propias declaraciones, más de 120.000 modelos, 20.000 conjuntos de datos y 50.000 demos:[2][16]

  • Repositorios de código basados en Git, con funciones similares a GitHub, incluidas discusiones y solicitudes de incorporación de cambios para proyectos
  • Modelos, también con control de versiones basado en Git
  • Conjuntos de datos, principalmente en texto, imágenes y audio
  • Aplicaciones web ("espacios" y "widgets"), destinadas a demostraciones a pequeña escala de aplicaciones de aprendizaje automático.

Hugging Chat

editar

Como sugiere el nombre, HuggingChat es una interfaz de chat de IA. El competidor del conocido ChatGPT se implementó junto con la organización sin fines de lucro LAION y su modelo Open Assistant. Al igual que ChatGPT, HuggingChat debe reaccionar a las entradas y, por ejemplo, escribir textos o códigos. Hugging Chat se lanzó en 2023 y, según HuggingFace, continuará expandiéndose.[2]

Otras bibliotecas

editar

Además de Transformers y Hugging Face Hub, el ecosistema Hugging Face contiene bibliotecas para otras tareas, como el procesamiento de conjuntos de datos ("Datasets"), evaluación de modelos ("Evaluate"), simulación ("Simulate") y demostraciones de aprendizaje automático (" Gradio").[17]

Protección de datos

editar

Hugging Face no almacena datos de clientes en forma de cargas útiles o tokens que se reenvían al punto final de inferencia. Almacenan registros durante 30 días. Todos los puntos finales de inferencia utilizan TLS/SSL para cifrar los datos en tránsito.[18]

Notas

editar
  1. Clement Delangue, CEO de Hugging Face, trabajó anteriormente para Moodstocks, entre otros. Moodstocks, especializada en visión por computadora/reconocimiento de imágenes, fue adquirida por Google en 2016. Anteriormente, Delangue fundó "VideoNot.es", su producto: una herramienta que crea notas automáticamente al reproducir videos. En 2023, Delangue invirtió en "Scenario", una empresa emergente que se especializa en el desarrollo de aplicaciones de modelado de objetos 3D para Metaverse.

Referencias

editar
  1. «Hugging Face – The AI community building the future.». huggingface.co. Consultado el 20 de agosto de 2022. 
  2. a b c Ann Kathrin Hermes (15 de mayo de 2023). «Was ist Hugging Face? - Open Source für Künstliche Intelligenz» [¿Qué es Hugging Face? - Código Abierto para Inteligencia Artificial] (en alemán). Consultado el 17 de mayo de 2023. 
  3. «Hugging Face wants to become your artificial BFF». TechCrunch (en inglés estadounidense). 9 de marzo de 2017. Consultado el 17 de mayo de 2023. «“Hay mucha gente trabajando en inteligencia artificial para aplicaciones de utilidad o productividad”, dijo Delangue, cofundador y director ejecutivo, en septiembre de 2016, cuando la aplicación aún estaba en una versión beta privada temprana. “Estamos construyendo una IA para que te diviertas hablando con ella. Cuando hables con ella, te reirás y sonreirás, será entretenida".» 
  4. «Hugging Face raises $40 million for its natural language processing library». 11 de marzo de 2021. 
  5. «Inside BigScience, the quest to build a powerful open language model». 10 de enero de 2022. 
  6. «BLOOM». bigscience.huggingface.co. Consultado el 20 de agosto de 2022. 
  7. «Gradio is joining Hugging Face!». huggingface.co. Consultado el 20 de agosto de 2022. 
  8. Cai, Kenrick. «The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution». Forbes (en inglés). Consultado el 20 de agosto de 2022. 
  9. «Student Ambassador Program's call for applications is open!». huggingface.co. Consultado el 20 de agosto de 2022. 
  10. «Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers». huggingface.co. Consultado el 19 de agosto de 2022. 
  11. «Introducing the Private Hub: A New Way to Build With Machine Learning». huggingface.co. Consultado el 20 de agosto de 2022. 
  12. James Bourne (23 de febrero de 2023). «AWS and Hugging Face expand partnership to make AI more accessible» (en inglés). Consultado el 17 de mayo de 2023. 
  13. Bass, Dina (21 de febrero de 2023). «Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up». Bloomberg News. 
  14. Nellis, Stephen (21 de febrero de 2023). «Amazon Web Services pairs with Hugging Face to target AI developers». Reuters. 
  15. Daniel Domínguez. «Hugging Face Releases StarCoder, the Next-Generation LLM for Seamless Code Generation» (en inglés). Consultado el 17 de mayo de 2023. «StarCoder was trained in over 80 programming languages as well as text from GitHub repositories, including documentation and Jupyter programming notebooks, plus it was trained on over 1 trillion tokens and with a context window of 8192 tokens, giving the model an impressive 15.5 billion parameters. This has outperformed larger models like PaLM, LaMDA, and LLaMA, and has proven to be on par with or even better than closed models like OpenAI’s code-Cushman-001.» 
  16. «Hugging Face Hub documentation». huggingface.co. Consultado el 20 de agosto de 2022. 
  17. «Hugging Face - Documentation». huggingface.co. Consultado el 18 de febrero de 2023. 
  18. «Security & Compliance». Consultado el 17 de mayo de 2023. 
  •   Datos: Q108943604
  •   Multimedia: Hugging Face / Q108943604