banner
Centro de Noticias
Excelentes insumos, riguroso aseguramiento de la calidad.

¿Puede ChatGPT destruir a la humanidad si no comprende el mundo?

Oct 15, 2023

A las tan discutidas alucinaciones de los modelos de lenguaje grande (LLM), su inestabilidad y falta de interpretabilidad, ahora podemos agregar su vulnerabilidad a ataques adversarios automatizados que los obligan a producir contenido dañino. Pero éstas son las menores de sus debilidades. La profundidad de su comprensión del mundo humano es un obstáculo mucho más importante que los LLM deben superar antes de convertirse en "superinteligencia".

Sin embargo, según OpenAI, creador de ChatGPT, esta “tecnología más impactante que la humanidad haya inventado jamás” podría “llegar en esta década” y podría “conducir a la extinción humana”.

Signo de chatbot para el concepto de servicio de soporte.

Ya hemos escuchado hace años que la IA similar a la humana está a la vuelta de la esquina. Cuando Terry Winograd ingresó a la escuela de posgrado a fines de la década de 1960, la mayoría [de los humanos inteligentes y conocedores] “creía que no pasaría mucho tiempo antes de que las máquinas vieran, oyeran, hablaran, se movieran y realizaran tareas similares a las humanas”, escribió John Markoff. en Máquinas de gracia amorosa.

Para su tesis doctoral en el MIT, Winograd desarrolló SHRDLU, un programa informático capaz de participar en conversaciones sobre un mundo inventado, un “micromundo” formado por bloques de juguete y una “pinza” para moverlos. Respondió a órdenes en inglés para manipular los bloques usando su pinza y "comprendió" preguntas sobre el estado de su mundo.

En su historia de la inteligencia artificial, Nils Nilsson dice que el impresionante desempeño de SHRDLU hizo que algunos investigadores de PNL se sintieran "optimistas sobre el éxito futuro". Pero “Winograd pronto abandonó esta línea de investigación para dedicarse a trabajos dedicados a la interacción entre computadoras y personas. Tal vez porque tenía experiencia de primera mano sobre cuánto conocimiento se necesitaba para comprender exitosamente el lenguaje en algo tan simple como el mundo de los bloques, desesperaba de poder darle a las computadoras suficiente conocimiento para duplicar toda la gama de competencia verbal humana”.

Más tarde, en 2006, Winograd vio la comprensión del lenguaje estadístico, las redes neuronales y el aprendizaje automático como nuevos desarrollos que movían el campo de la IA en la dirección de su enfoque preferido para la interacción persona-computadora. "La prueba y el error ilustrados superan la planificación del intelecto impecable" está en el centro de este enfoque, escribió, reconociendo "las limitaciones de conocer y modelar las complejidades del mundo humano real".

Otros triunfos del enfoque de análisis estadístico de la IA, particularmente en el ámbito de la identificación de imágenes en 2012, hicieron que la mayoría de los humanos inteligentes y conocedores creyeran que la inteligencia artificial similar a la humana o incluso la “superinteligencia” está, nuevamente, a la vuelta de la esquina.

La mayoría, pero no todos. Una herramienta popular utilizada por quienes cuestionan la inteligencia de la nueva IA se conoció como el Desafío del Esquema de Winograd. Esta fue una creación de 2010 de Héctor Levesque en la Universidad de Toronto, basada en un ejemplo de ambigüedad semántica mencionado en "Understanding Natural Language" de Winograd de 1972. Para superar las limitaciones del “Prueba de Turing”, Levesque sugirió una prueba de opción múltiple que requiere la resolución correcta de un pronombre ambiguo en una declaración. Por ejemplo,

El trofeo no cabe en la maleta marrón porque es demasiado grande. ¿Qué es demasiado grande?

R. El trofeo

B. La maleta

“El desafío atrajo un gran interés favorable tanto de la comunidad investigadora como de la prensa científica popular. La naturalidad del problema lo hizo justo para los sistemas de IA; la complejidad de las inferencias involucradas parecía ponerlo mucho más allá del alcance de lo que entonces era la tecnología actual”, escribieron los autores de “La derrota del desafío del esquema de Winograd” (enero de 2023).

De hecho, en la “primera y última ejecución del Winograd Schema Challenge” que tuvo lugar en 2016, el más exitoso de los seis programas de IA que participaron logró una puntuación del 58% en la colección de pruebas, sólo un poco mejor que el azar. En la conferencia inaugural de IA de O'Reilly ese mismo año, mientras algunos hablaban de los coches sin conductor “sobrehumanos” que están a la vuelta de la esquina, otros, incluido el pionero del aprendizaje profundo Yann LeCun, mencionaron el esquema de Winograd como un desafío sin resolver en las pruebas del conocimiento de la máquina sobre cómo funciona el mundo.

Sin embargo, apenas un año después, el procesamiento del lenguaje natural (PNL) avanzó y los investigadores de Google publicaron "La atención es todo lo que necesitas". Propuso el Transformer (la T en ChatGPT), una nueva “arquitectura de red” que mejoró considerablemente el aprendizaje (automático) de las dependencias entre palabras incluso cuando están muy separadas en el texto. El resultado de este avance, además de desatar la avalancha de la IA generativa, fue la derrota del Winograd Schema Challenge, en el que la IA pasó de “suposiciones aleatorias al desempeño humano en un lapso de tiempo muy corto”, alcanzando una puntuación del 90,1% en 2019.

El modelo de lenguaje grande GPT-3 logró una puntuación similar (88,3%) en 2020. Ansioso por ver con mis propios ojos el triunfo de LLM, ejecuté algunas frases del esquema de Winograd en la versión de ChatGPT del 20 de julio de 2023. Me dio las respuestas correctas a un par de ellas. Pero luego le presenté: "El saco de patatas había sido colocado debajo del saco de harina, por lo que había que moverlo primero. ¿Qué había que mover primero?". y recibí esto en respuesta:

En la frase dada, "eso" se refiere al saco de patatas. La frase "El saco de patatas había sido colocado debajo del saco de harina, por lo que había que moverlo primero" significa que primero había que mover el saco de patatas antes de acceder o mover el saco de harina, que estaba colocado encima de él.

Cuando cambié la posición del saco de patatas de "abajo" a "arriba", obtuve esta respuesta:

Disculpas por cualquier confusión en mi respuesta anterior. En la frase dada, "eso" se refiere a la bolsa de harina. La interpretación correcta de la frase es:

"El saco de patatas estaba colocado encima del saco de harina, por lo que primero hubo que moverlo".

Esto significa que primero había que mover la bolsa de harina porque estaba debajo del saco de patatas, y había que apartarla antes de acceder al saco de patatas colocado encima.

Parece que el gran salto adelante de la IA, que según algunos de sus destacados desarrolladores conducirá pronto a una superinteligencia que podría destruir a la humanidad, todavía no tiene, al menos en este caso, una comprensión infantil del espacio y el movimiento y lo que implica. en mover y manipular objetos físicos.

A veces, los LLM parecen comprender el mundo y cómo operar en él, y otras veces no lo logran. A veces, sus habilidades lingüísticas conducen a traducciones precisas y, a veces, a fracasos totales. Pero ¿qué pasa con su impresionante desempeño en el Winograd Schema Challenge?

En el documento que documenta la desaparición del Winograd Schema Challenge, los investigadores que trabajaron durante unos diez años para promoverlo como una prueba de inteligencia artificial, atribuyen los logros humanos del LLM a fallas en la “formulación y ejecución” de la prueba.

Además, informaron que a principios de la década de 2010, “cuando había pocas señales de que los sistemas de IA pudieran tener éxito en el Desafío del Esquema de Winograd, hubo quienes advirtieron que podría ser una prueba menos sólida de lo que sus creadores esperaban y creían. Argumentaron que... el éxito podría llegar sin resolver el problema subyacente que había motivado el desafío”.

Los defensores del Esquema de Winograd admiten ahora que resolverlo “no es un sustituto de la capacidad de razonar con sentido común, y mucho menos de la inteligencia. La dificultad de utilizar el éxito en una tarea específica como sustituto de la inteligencia continúa hasta el día de hoy, incluso cuando las tareas que las computadoras pueden realizar con éxito aumentan significativamente en complejidad”.

O lo que Yehoshua Bar-Hillel llamó hace setenta años (!) la falacia del primer paso: la distancia entre la incapacidad de hacer algo y hacerlo mal suele ser mucho más corta que la distancia entre hacer algo mal y hacerlo correctamente.

O lo que dijo Terry Winograd en 2004, según Nilsson: “Existen abismos fundamentales entre la forma en que operan SHRDLU y sus parientes, y lo que sea que sucede en nuestros cerebros”.

Winograd pensó que se necesitarían décadas o más para hacer realidad las ambiciones iniciales de los investigadores de la PNL. "Mientras tanto", dijo, "la IA asumió objetivos mucho más factibles de trabajar en nichos menos ambiciosos o aceptar resultados menos que humanos (como en la traducción)".

Ya no. La ambición actual de los desarrolladores de IA se centra en llegar a la inteligencia artificial general (AGI), recreando todo el espectro de la inteligencia humana en las máquinas y solucionando todos sus defectos.

Después de asistir a la conferencia O'Reilly AI en 2016, escribí:

¿Quizás, sólo quizás, nuestras mentes no son computadoras y las computadoras no se parecen a nuestro cerebro? Y tal vez, sólo tal vez, si finalmente abandonamos la inútil búsqueda de replicar la “IA a nivel humano” en las computadoras, encontremos muchas aplicaciones adicionales, aunque “limitadas”, de las computadoras para enriquecer y mejorar nuestras vidas.

Ver también:

Lecciones aprendidas de las conversaciones por computadora y el dominio de la IA hace 70 años

Demostrando por qué la IA no puede realizar traducciones de alta calidad