Se ha extendido el rumor fuera de la comunidad tecnológica: el mundo cambió este verano con el lanzamiento de un sistema de inteligencia artificial conocido como GPT-3. Su habilidad para interactuar en inglés y generar una redacción coherente ha sobresaltado a los expertos, quienes hablan de «GPT-3 shock».
A diferencia de los sistemas típicos de inteligencia artificial (IA) que son entrenados para tareas específicas -clasificar imágenes, jugar Go- GPT-3 puede manejar tareas para las que nunca fue específicamente entrenado. Investigación dada a conocer por OpenAI, su fabricante con sede en San Francisco, ha encontrado que GPT-3 puede resolver preguntas de analogía del antiguo examen de aptitud académica SAT con mejores resultados que el candidato universitario promedio. Puede generar artículos noticiosos que a los lectores les podría resultar difícil distinguir de los escritos por humanos.
Y puede realizar tareas en las que sus creadores nunca pensaron. Probadores beta han descubierto en semanas recientes que puede completar un memorándum de inversión escrito a medias, producir notas y cartas escritas al estilo de gente famosa, generar ideas de negocios e incluso escribir ciertos tipos de código de software con base en una descripción en inglés sencillo del software deseado. OpenAI ha anunciado que tras el periodo de prueba, GPT-3 será lanzado como producto comercial.
El nombre simboliza las palabras Generative Pre-trained Transformer, o transformador generativo preentrenado, de tercera generación. Al igual que otros sistemas de IA hoy, GPT-3 se basa en una enorme colección organizada de valores numéricos, conocidos como parámetros, que determinan su operación. El desarrollador de la IA la entrena usando enormes conjuntos de datos digitales, en este caso, una versión filtrada de contenidos de la Red, además de Wikipedia y algunos otros. El número de parámetros es una medida clave de la capacidad de un modelo de inteligencia artificial; GPT-3 tiene 175 mil millones, que es más de 100 veces el número de su predecesor GPT-2, y 10 veces el de su rival más cercano, Turing NLG de Microsoft.
Sentí curiosidad. Me convertí en probador beta del sitio de internet simplify.so, que permite que usuarios ingresen texto en inglés para que GPT-3 lo simplifique, y puse la tecnología a prueba.
Copié y pegué el primer párrafo del Discurso de Despedida de George Washington en 1796: «Estando el periodo para la nueva elección de un ciudadano que administre el poder ejecutivo de Estados Unidos no muy distante, y llegando el momento en que se den a la tarea de designar a la persona que ha de ser investida con ese importante deber, me parece adecuado, sobre todo en vista de que podría conducir a una expresión más nítida de la voz pública, que les anuncie la decisión que he tomado, de declinar ser considerado entre aquellos de entre los cuales se hará una elección».
GPT-3 me dio su traducción: «No voy a postularme para Presidente».
Obtuve resúmenes igual de convincentes cuando ingresé la Primera Enmienda de la Constitución de Estados Unidos y otras fuentes.
No obstante, cuando le di la famosa primera frase de «Orgullo y Prejuicio» de Jane Austen – «Es una verdad universalmente aceptada que un hombre soltero en posesión de una notable fortuna necesita una esposa»- fue desconcertante observar a la IA. En el curso de los primeros cuatro intentos, algunas de sus respuestas fueron aproximadas sin llegar a acertar del todo. (Por ejemplo, «Un hombre con mucho dinero busca esposa»). Entonces, en mi quinto intento, pareció bromear: «Es una verdad universalmente aceptada que un hombre soltero que tenga una fortuna necesita esposa, porque los hombres son muy vanidosos y quieren ser considerados ricos y las mujeres son muy avariciosas y quieren ser consideradas hermosas».
Estoy antropomorfizando a GPT-3 aquí, pero no debería hacerlo. Es un modelo estadístico que carece de estados mentales ni emplea la lógica como nosotros pensamos en ella.
Shreya Shankar, una ingeniera de aprendizaje de máquinas en Viaduct, una firma de IA, me dijo que los usuarios más avanzados pueden enseñarle al sistema a realizar nuevas tareas al presentarle ejemplos, con frecuencia sólo unos cuantos. A partir de ahí, el sistema generaliza cuál es la tarea.
Una vez que el GPT-3 ha sido preparado con ejemplos, de todos modos necesita a un humano presente para separar la plata de las escorias en sus resultados, lo que incluye disparates ocasionales y el sesgo que adoptó de su entrenamiento en internet.
Si el precio es adecuado, es muy probable que el GPT-3 realice cambios importantes en nuestras vidas laborales. Para una variedad de trabajadores del conocimiento -reporteros de noticias, abogados, programadores y otros- es probable que la introducción de sistemas como GPT-3 traslade sus actividades de la redacción a la edición. Como ventaja, el principal obstáculo para completar el trabajo, la tiranía de la hoja o la pantalla en blanco, podría volverse mucho menos común. Es bastante simple tan sólo seguir dando clic al botón de «generar» en GPT-3 hasta que aparezca algo medio utilizable.
Sin embargo, la tiranía de la pantalla en blanco nos obliga a cavilar sobre un problema de una forma en que la acción de editar no lo hace. La naturaleza humana probablemente significa que la gente con frecuencia está más decidida a manipular un resultado de IA hasta que luzca aceptable que a realizar su propio trabajo para analizar datos ambiguos y argumentos en conflicto.
Si esto suena exagerado, es importante considerar que es probable que los modelos de lenguaje de IA se sigan fortaleciendo. Crear un rival más poderoso para GPT-3 está al alcance de otras compañías de tecnología. Los métodos subyacentes del aprendizaje de máquinas son ampliamente conocidos y los datos que empleó OpenAI para su entrenamiento están disponibles para el público. Ahora que GPT-3 ha mostrado el potencial de modelos muy grandes, sus 175 mil millones de parámetros podrían ser superados pronto.
De hecho, investigadores de Google anunciaron en junio que habían desarrollado un modelo con 600 mil millones de parámetros para la traducción de idiomas, y e investigadores en Microsoft han dicho que tienen la mira puesta en modelos con un millón de millones de parámetros, aunque no necesariamente para lenguaje.
Si GPT-3 encuentra un mercado, esa no será la última palabra, para bien o para mal.
– David A. Price es autor de «The Pixar Touch: The Making of a Company».
Edición del artículo original
Fuente: Reforma, The Wall Street Journal, 25 agosto,2020