¿La IA es la herramienta adecuada para resolver ese problema?

Harvard Business Review Wake-Up Call Spanish

Guardar
BC-WAKEUPCALL-AI-PROBLEMS-ART-NYTSF — Is AI the
BC-WAKEUPCALL-AI-PROBLEMS-ART-NYTSF — Is AI the Right Tool to Solve That Problem? (Tony Cenicola/The New York Times) — ONLY FOR USE WITH ARTICLE SLUGGED — BC-WAKEUPCALL-AI-PROBLEMS-ART-NYTSF — OTHER USE PROHIBITED.

La capacidad de la inteligencia artificial para resolver problemas complejos depende de varios factores que pueden mejorar o dificultar su eficacia. Entre las consideraciones más críticas se encuentran la disponibilidad de datos de alta calidad, el alcance de las posibles soluciones al problema, la claridad del objetivo que se desea alcanzar y la necesidad de adaptarse a sistemas en constante cambio. Cuando estos elementos faltan o están mal definidos, presentan desafíos que requieren enfoques innovadores para superarlos.

1. ESCASEZ DE DATOS DE ALTA CALIDAD

Los datos son la entrada más importante de cualquier modelo de IA, pero con demasiada frecuencia, se presta más atención al tamaño de los datos que a su calidad. Si bien las tendencias actuales con modelos de lenguaje de gran tamaño sugieren que una cantidad cada vez mayor de datos es la clave para obtener modelos y resultados de mayor calidad, sigue siendo una cuestión de investigación abierta si esto seguirá siendo así.

Se ha demostrado que los datos de alta calidad son igual de importantes, si no más, que las grandes cantidades de datos. En determinados casos, si se dispone de un conjunto de datos relativamente pequeño (pero de gran calidad) como punto de partida, se puede aumentar cuidadosamente el número de puntos de datos generando datos sintéticos.

2. DEMASIADAS SOLUCIONES POTENCIALES

Cuando un problema tiene demasiadas posibles soluciones, resolverlo mediante métodos de fuerza bruta (probando exhaustivamente todas las combinaciones) se vuelve poco práctico. Históricamente, este tipo de problemas se ha abordado utilizando heurísticas: reglas simples diseñadas para proporcionar soluciones "lo suficientemente buenas" para la mayoría de los escenarios, aunque rara vez sean óptimas.

La IA ofrece una alternativa prometedora para manejar la complejidad de los problemas con innumerables soluciones potenciales. Sin embargo, a medida que aumenta el número de posibles soluciones, también lo hace el desafío de verificar su calidad.

3. LA FALTA DE UN OBJETIVO CLARO Y MEDIBLE

Un objetivo, o función de recompensa, es la meta o resultado que el modelo de IA intenta alcanzar. En otras palabras, se trata de hacerle la pregunta correcta al sistema. Formular lo que usted desea que el modelo haga es una de las partes más difíciles de cualquier sistema de aprendizaje automático. Los juegos como el ajedrez tienen un objetivo claro y medible, como una puntuación o un conjunto de reglas para determinar al ganador, y las iteraciones sin costo permiten que la IA aprenda rápidamente.

Pero en el mundo real, que a menudo es complejo y caótico, no existe una métrica sencilla que podamos utilizar para medir el progreso. Sin un objetivo claro y medible, puede ser difícil definir qué significa que el modelo sea "bueno". Cuanto más ambiguo sea el objetivo, peor será el rendimiento del modelo.

4. CUANDO LO "BUENO" NO PUEDE CODIFICARSE

Los problemas que enfrentan las organizaciones rara vez son estáticos. Combinado con la dificultad de identificar fácilmente si una solución propuesta es buena, la IA corre el riesgo de ofrecer soluciones que se desvíen progresivamente de la respuesta óptima. Una técnica cada vez más adoptada para superar este desafío es el aprendizaje por refuerzo con retroalimentación humana (RLHF, por sus siglas en inglés).

Esta técnica (que incluye a los humanos en el proceso) permite que el modelo aprenda e incorpore conocimientos humanos fuera de los datos. El RLHF es particularmente útil en situaciones donde es difícil codificar una solución algorítmica clara, pero donde los humanos pueden juzgar intuitivamente la calidad de los resultados del modelo.

UN CAMINO EQUILIBRADO HACIA ADELANTE

A medida que la IA continúa evolucionando, es necesario que las organizaciones aborden su implementación de manera reflexiva.