Un nuevo conjunto de herramientas de modelos lingüísticos de código abierto
El sector de los grandes modelos lingüísticos sigue creciendo. StabilityAI, fabricante de la popular herramienta de generación de imágenes Stable Diffusion, ha lanzado un paquete de herramientas de modelos lingüísticos de código abierto.
Conoce StableLM
Bautizadas como “StableLM”, las versiones alfa del paquete de acceso público contienen actualmente modelos con 3,000 y 7,000 millones de parámetros, con modelos de 15,000, 30,000 y 65,000 millones de parámetros “en desarrollo” y un modelo de 175,000 millones previsto para el futuro.
¿El tamaño importa?
En comparación, GPT-4 tiene un recuento de parámetros estimado en un billón, seis veces superior al de su predecesor GPT-3.
Sin embargo, el recuento de parámetros puede no ser una medida uniforme de la eficacia de LLM, como señaló StabilityAI en la entrada de blog en la que anunciaba el lanzamiento de StableLM:
“StableLM está entrenada en un nuevo conjunto de datos experimental construido sobre The Pile, pero tres veces más grande con 1.5 billones de tokens de contenido […] La riqueza de este conjunto de datos proporciona a StableLM un rendimiento sorprendentemente alto en tareas conversacionales y de programación, a pesar de su pequeño tamaño de 3 a 7 billones de parámetros”.
¿Cuán robustos son los modelos de StableLM?
Por el momento no está claro hasta qué punto son robustos los modelos de StableLM. El equipo de StabilityAI señaló en la página de Github de la organización que pronto se ofrecería más información sobre las capacidades de LM, incluidas las especificaciones del modelo y los ajustes de entrenamiento.
¿Interesado en probar StableLM?
Siempre que los modelos funcionen lo suficientemente bien en las pruebas, la llegada de una potente alternativa de código abierto a ChatGPT de OpenAI podría resultar interesante para el mundo del comercio de criptomonedas.
Como ya te contamos anteriormente, la gente está construyendo bots de comercio avanzados usando la API GPT y nuevas variantes que incorporan el acceso a herramientas de terceros, como BabyAGI y AutoGPT.
La incorporación de modelos de código abierto a la mezcla podría ser una bendición para traders expertos en tecnología que no quieran pagar las primas de acceso de OpenAI.
Prueba StableLM en HuggingFace
Los interesados pueden probar una interfaz en tiempo real para el modelo StableLM de 7B parámetros alojada en HuggingFace.
En resumen, el lanzamiento de StableLM por parte de StabilityAI es un emocionante desarrollo en el mundo de los grandes modelos lingüísticos de código abierto. Aunque aún no está claro cuán robustos son estos modelos, la posibilidad de tener acceso a herramientas de esta magnitud y sofisticación puede ser una bendición para los traders expertos en tecnología que buscan evitar los altos costos de acceso a las herramientas de terceros. Además, el enfoque de StableLM en el rendimiento en tareas conversacionales y de programación puede tener aplicaciones valiosas en áreas como el comercio de criptomonedas. En definitiva, habrá que seguir de cerca el desarrollo de StableLM y ver cómo afecta al panorama de los grandes modelos lingüísticos.