
DeepSeek ha actualizado Prover, un modelo de inteligencia artificial (IA) diseñado para la resolución de problemas matemáticos, para que trabaje con la arquitectura de mezcla de expertos (MoE) de la mano del modelo V3.
Prover se lanzó en agosto y esta semana se ha compartido su segunda versión bajo una modalidad de código abierto en HuggingFace, después de que Alibaba presentara la familia Qwen 3, introduce un nuevo modo de pensamiento para las cuestiones que requieren un razonamiento más profundo, y está optimizada con capacidades de agente.
Prover está construido sobre V3, un modelo entrenado con 671.000 millones de parámetros y construido con la arquitectura MoE, que divide un modelo de IA en pequeñas redes neuronales para que actúen de forma separada, para cada tarea, como si fueran distintos expertos.
Con ello, la compañía china mejora la eficacia de su modelo diseñado para la resolución de problemas matemáticos y teoremas, como recogen en South China Morning Post. Se espera que próximamente DeepSeek también lance el modelo de razonamiento R2.
Últimas Noticias
Díaz recuerda a las eléctricas que se deben al "interés general" y les pide datos para esclarecer el apagón

España bate un nuevo récord en trasplante de médula ósea con 3.844 intervenciones en 2024

Dimite el presidente interino surcoreano para postularse en las generales del 3 de junio
VÍDEO: Reino Unido aplaude el acuerdo económico alcanzado entre EEUU y Ucrania que incluye la explotación de recursos
