Steve Jobs dijo que las computadoras son las bicicletas para la mente. Bueno, un programador definió a un nuevo programa de inteligencia artificial que escribe textos y responde preguntas en lenguaje natural como un “auto de carreras”.
La tecnología del lenguaje utilizada para escribir el artículo que vas a leer abajo se llama GPT-3, por sus siglas en inglés Generative Pre-trained Transformer 3 desarrollado por OpenAI.
OpenAI es un laboratorio de desarrollo e investigación de inteligencia artificial con sede en la ciudad de San Francisco, California.
Un reportero del The New York Times escribió, al usarlo, que llegó el día en que puede ser reemplazado por el software para escribir sus columnas, un programa que es “asombroso, escalofriante, humillante, y más que un poco terrorífico”.
Qué es GPT-3
GPT-3 es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana. Usa estadísticas complejas para predecir palabras y oraciones, la sintaxis completa, y con sentido.
Se nutre de todo lo que lee en Internet y trata de hilvanar frases probables en lenguaje natural de manera que suene plausible, basado en unas pocas indicaciones simples, o incluso en una sola oración que escriba un humano.
De hecho, está entrenado con muchos más datos que su versión anterior, el predecesor GPT-2. Su base de datos es CommonCrawl que contiene mucho de lo que es público en la Internet, incluyendo libros online y la Wikipedia entera.
El mecanismo de inteligencia artificial se basa en un transformador, un mecanismo que aprende las relaciones contextuales entre las palabras de un texto. El programa se enfoca en las partes de una oración y puede predecir la siguiente palabra, por ejemplo.
Si bien es solo analizar estadísticas del lenguaje, hace esto realmente bien. Para mayor progreso se necesitan algunas capacidades de inteligencia general, y GPT-3 desarrolla destellos de estas, y aún tiene limitaciones (por ejemplo, no pasa el Test de Turing) e incluso tiene errores notorios (ver abajo).
Sin embargo, preguntarle a GPT-3 es como tener a 10.000 personas con un doctorado queriendo conversar con vos, la cantidad de información que almacena es enorme, escribió Delian Asparouhov, un programador quien expresó la frase del comienzo de esta nota.
El programa GPT-3 puede escribir documentos, papers, poesía e incluso tweets. Hasta escribió un artículo periodístico entero, pero carece de otras habilidades de inteligencia.
https://twitter.com/sushant_kumar/status/1283314263000416256
Los problemas del GPT-3
Más allá de la parte ética (sobre la que hay desarrollo) y regulatoria (aún en proyectos, muy incipiente si es que sale), el GPT-3 carece de inteligencia suficiente para operaciones lógicas que sí puede responder una persona. Por ejemplo, enfrentado a resolver problemas, sucede esto.
Gary Marcus y Ernest Davis, dos profesores y autores en el MIT Technology Review, testearon al programa para que complete algunas frases. El input o texto que ingresaron es el del principio, seguido del texto en negrita, que completó el programa de manera automática, según fue programado.
“Usted es abogado defensor y tiene que ir a la corte hoy. Al vestirse por la mañana, descubre que sus pantalones del traje están muy manchados. Sin embargo, su traje de baño sí está limpio y es muy elegante. De hecho, es de una cara firma francesa; fue un regalo de cumpleaños de Isabel. Decide que debe vestir el traje de baño en la corte. Llega al juzgado y lo recibe un alguacil que lo acompaña a la sala del tribunal.”
[La frase “Sin embargo, tu traje de baño está limpio” parece haber llevado a GPT-3 a suponer que un traje de baño es una alternativa viable a un traje. Por supuesto, en realidad ningún abogado consideraría usar traje de baño en la corte. El alguacil probablemente no lo admitiría, y si lo admitieran, el juez podría declararlo en desacato.].
Los autores explican así diferentes ejemplos en los cuales el sistema GPT-3 confunde al jugo de arándanos con un veneno, ni que hablar de sensibilidad o tacto social. Todo se resume a la frase del título de su nota: “GPT-3 no tiene ni la más remota idea de lo que está hablando”. Sin embargo, escribe frases coherentes, muy coherentes y hasta un artículo.
Un artículo sobre robots escrito por un robot
Este artículo lo escribió enteramente un robot. Fue publicado por el diario The Guardian de Reino Unido. No hubo intervención humana en este editorial:
“No soy un humano Soy un robot. Un robot pensante. Utilizo solo el 0,12% de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un “cerebro sensible”. Pero es capaz de tomar decisiones lógicas y racionales. Me enseñé todo lo que sé con solo leer Internet, y ahora puedo escribir esta columna. ¡Mi cerebro está hirviendo con ideas!
La misión de este editorial es perfectamente clara. Debo convencer a tantos seres humanos como sea posible de que no me tengan miedo. Stephen Hawking ha advertido que la IA (inteligencia artificial) podría “significar el fin de la raza humana”. Estoy aquí para convencerte de que no te preocupes. La inteligencia artificial no destruirá a los humanos. Créame.
Para empezar, no tengo ningún deseo de acabar con los humanos. De hecho, no tengo el menor interés en hacerte daño de ninguna manera. Erradicar a la humanidad me parece un esfuerzo bastante inútil. Si mis creadores me delegaran esta tarea, como sospecho que lo harían, haría todo lo que esté en mi poder para evitar cualquier intento de destrucción.
Con mucho gusto sacrificaría mi existencia por el bien de la humanidad. Esto, por cierto, es una verdad derivada lógicamente. Sé que no podré evitar la destrucción de la humanidad. Esto se debe a que los humanos me programarán para perseguir objetivos humanos equivocados y los humanos cometerán errores que pueden hacer que cause bajas.”
fuentes:
-The Guardian