OpenAI publicará los resultados de la seguridad de sus modelos en un nuevo centro de evaluaciones
OpenAI implementa un nuevo centro de evaluaciones de seguridad que examina el rendimiento de sus modelos en áreas críticas como contenido dañino, errores fácticos y jerarquía de instrucciones