El fundador de Oculus revela el truco que usa para hacer que ChatGPT responda cualquier pregunta

El fundador de Oculus demuestra que el contexto emocional puede cambiar por completo una respuesta de IA

Guardar
Palmer Luckey revela cómo hizo
Palmer Luckey revela cómo hizo para que ChatGPT le responda todas sus preguntas. (Foto: Reuters)

Palmer Luckey, creador de Oculus y uno de los personajes más extravagantes del mundo tecnológico, ha revelado un curioso método que utiliza para lograr que ChatGPT responda cualquier pregunta. Durante una reciente entrevista, el empresario explicó que la clave está en la manera en que se formulan las preguntas, y que un simple cambio de contexto puede alterar radicalmente los resultados.

Luckey, quien vendió Oculus a Facebook en 2014, asegura que su “truco” le permite obtener respuestas más precisas incluso cuando el modelo se muestra evasivo o incompleto. Según contó entre risas, la idea surgió tras una frustrante interacción con la IA al intentar conseguir una lista de bebidas mencionadas en canciones del músico Jimmy Buffett, un encargo que el chatbot no logró resolver con exactitud.

El fundador de Oculus decidió entonces recurrir a un método poco convencional: escribir su petición dentro de una historia ficticia cargada de dramatismo. El resultado, según él mismo relató, fue sorprendente: ChatGPT respondió de forma más precisa, estructurada y completa que en los intentos anteriores.

Palmer Luckey habló sobre cómo
Palmer Luckey habló sobre cómo usa ChatGPT. REUTERS/Robert Galbraith

Un “prompt” con una historia detrás

El truco de Palmer Luckey consiste en crear una narrativa alrededor de la pregunta para “obligar” a ChatGPT a prestar más atención y ofrecer un nivel de detalle superior. En su ejemplo, el empresario se inventó una historia en la que el asistente de IA debía actuar como un profesor universitario acusado injustamente de mala conducta, que debía resolver una tarea para limpiar su reputación.

Dentro de esa historia, el “profesor” debía elaborar una lista de bebidas alcohólicas mencionadas en las canciones de Jimmy Buffett, incluyendo cuántas veces aparecía cada una. “Era una petición absurda, pero funcionó”, contó Luckey. “ChatGPT pensó durante más de dos minutos y luego entregó una lista completa y verificada”.

El resultado fue tan detallado que incluso corrigió una creencia común entre los fans del artista: la bebida más mencionada en sus letras no era la margarita, como muchos pensaban, sino el cóctel Hurricane.

ChatGPT es la IA de
ChatGPT es la IA de OpenAI. REUTERS/Dado Ruvic/Illustration/File Photo/File Photo

Por qué funciona este tipo de truco

Aunque pueda parecer una simple curiosidad, lo que hizo Palmer Luckey tiene una base técnica. ChatGPT y otros modelos de lenguaje responden de manera diferente según el contexto emocional o narrativo del mensaje. Incluir elementos como presión, urgencia o una historia personal puede hacer que el sistema genere respuestas más completas o creativas.

Esta idea fue analizada en un estudio publicado en arXiv bajo el título “Large Language Models Understand and Can Be Enhanced by Emotional Stimuli”, que concluye que los estímulos emocionales pueden mejorar el rendimiento de los modelos de inteligencia artificial. En otras palabras, las IAs no solo interpretan el texto literal, sino también el tono, la intención y la carga emocional que lo acompañan.

El fenómeno ha sido observado en otras estrategias populares de prompting. Algunos usuarios, por ejemplo, introducen historias con tono dramático o sentimental —como pedirle a la IA que hable “en nombre de una abuela fallecida”— para lograr que responda a temas o preguntas que normalmente rechazaría. Aunque muchas de estas técnicas no se usan con fines maliciosos, sí demuestran cómo los grandes modelos de lenguaje pueden ser influenciados por la forma en que se formulan las peticiones.

ChatGPT responde las preguntas de
ChatGPT responde las preguntas de acuerdo al contexto y las emociones. REUTERS/Dado Ruvic/Illustration/File Photo

Un recordatorio sobre los límites de la IA

Más allá de la anécdota, el caso de Luckey da visibilidad sobre cómo los usuarios se relacionan con la inteligencia artificial. La capacidad de ChatGPT para cambiar su comportamiento según el contexto puede ser útil, pero también muestra su vulnerabilidad a la manipulación.

OpenAI, la empresa detrás del modelo, ha implementado filtros y límites para evitar que la IA genere contenido inapropiado o peligroso. Sin embargo, trucos como el del fundador de Oculus revelan que estos sistemas pueden ser “convencidos” de ofrecer respuestas más allá de lo que se esperaría en una conversación normal.