El 25 de febrero, los datos de Jinshi, el equipo de Ali Qwen, anunció esta mañana en las redes sociales el lanzamiento de un nuevo modelo de inferencia, Profundidad Pensante (QwQ). Este es un modelo de inferencia basado en Qwen2.5-Max, con el soporte de QWQ-MAX-PREVIEW. Blue Whale News descubrió que, al igual que los modelos de inferencia DeepSeek R1 y kimi, QwQ puede admitir tanto la Profundidad Pensante como la búsqueda en línea, y mostrará una cadena completa de pensamiento. El equipo de Qwen dijo que la versión oficial de QWQ-MAX se lanzará pronto, junto con la aplicación para Android e iOS, y también se lanzarán modelos más pequeños que se pueden implementar en dispositivos locales, como QWQ-32B.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
El equipo de Ali Qwen lanzó el nuevo modelo de promoción QwQ, que mostrará la cadena completa de pensamiento
El 25 de febrero, los datos de Jinshi, el equipo de Ali Qwen, anunció esta mañana en las redes sociales el lanzamiento de un nuevo modelo de inferencia, Profundidad Pensante (QwQ). Este es un modelo de inferencia basado en Qwen2.5-Max, con el soporte de QWQ-MAX-PREVIEW. Blue Whale News descubrió que, al igual que los modelos de inferencia DeepSeek R1 y kimi, QwQ puede admitir tanto la Profundidad Pensante como la búsqueda en línea, y mostrará una cadena completa de pensamiento. El equipo de Qwen dijo que la versión oficial de QWQ-MAX se lanzará pronto, junto con la aplicación para Android e iOS, y también se lanzarán modelos más pequeños que se pueden implementar en dispositivos locales, como QWQ-32B.