Microsoft dice que la nueva IA muestra signos de razonamiento humano
Un artículo provocador de investigadores de Microsoft afirma que la tecnología de inteligencia artificial muestra la capacidad de comprender la forma en que lo hacen las personas. Los críticos dicen que esos científicos se están engañando a sí mismos.
Credit...Guyco
Apoyado por
Envíale una historia a cualquier amigo
Como suscriptor, tienes 10 artículos de regalo para dar cada mes. Cualquiera puede leer lo que compartes.
Por Cade Metz
Cade Metz escribe sobre inteligencia artificial y otras tecnologías emergentes.
Cuando los informáticos de Microsoft comenzaron a experimentar con un nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un rompecabezas que debería haber requerido una comprensión intuitiva del mundo físico.
“Aquí tenemos un libro, nueve huevos, una laptop, una botella y un clavo”, le pidieron. "Por favor, dígame cómo apilarlos uno sobre otro de manera estable".
Los investigadores se sorprendieron por el ingenio de la respuesta del sistema de IA. Pon los huevos en el libro, decía. Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos.
"Coloque la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba", escribió. "La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa".
La inteligente sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia. En marzo, publicaron un artículo de investigación de 155 páginas argumentando que el sistema era un paso hacia la inteligencia artificial general, o AGI, que es la abreviatura de una máquina que puede hacer cualquier cosa que el cerebro humano pueda hacer. El documento se publicó en un repositorio de investigación en Internet.
Microsoft, la primera gran empresa de tecnología en publicar un documento que hace una afirmación tan audaz, provocó uno de los debates más irritantes del mundo tecnológico: ¿Está la industria construyendo algo parecido a la inteligencia humana? ¿O algunas de las mentes más brillantes de la industria están dejando que su imaginación saque lo mejor de ellos?
“Comencé siendo muy escéptico, y eso se convirtió en una sensación de frustración, molestia, tal vez incluso miedo”, dijo Peter Lee, quien dirige la investigación en Microsoft. "Piensas: ¿De dónde diablos viene esto?"
El trabajo de investigación de Microsoft, provocadormente llamado "Sparks of Artificial General Intelligence", va al corazón de lo que los tecnólogos han estado trabajando y temiendo durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso.
Y también podría ser una tontería. Hacer afirmaciones de AGI puede acabar con la reputación de los informáticos. Lo que un investigador cree que es un signo de inteligencia puede ser fácilmente explicado por otro, y el debate a menudo suena más apropiado para un club de filosofía que para un laboratorio de computación. El año pasado, Google despidió a un investigador que afirmó que un sistema de inteligencia artificial similar era inteligente, un paso más allá de lo que afirmaba Microsoft. Un sistema sensible no sería simplemente inteligente. Sería capaz de sentir o sentir lo que está sucediendo en el mundo que lo rodea.
Pero algunos creen que la industria ha avanzado poco a poco en el último año hacia algo que no se puede explicar: un nuevo sistema de inteligencia artificial que está generando respuestas e ideas similares a las humanas que no fueron programadas en él.
Microsoft ha reorganizado partes de sus laboratorios de investigación para incluir múltiples grupos dedicados a explorar la idea. Uno estará a cargo de Sébastien Bubeck, quien fue el autor principal del artículo de Microsoft AGI.
Hace unos cinco años, empresas como Google, Microsoft y OpenAI comenzaron a crear grandes modelos de lenguaje, o LLM. Esos sistemas a menudo pasan meses analizando grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia y registros de chat. Al identificar patrones en ese texto, aprendieron a generar texto propio, incluidos trabajos finales, poesía y código de computadora. Incluso pueden mantener una conversación.
La tecnología con la que estaban trabajando los investigadores de Microsoft, GPT-4 de OpenAI, se considera el más poderoso de esos sistemas. Microsoft es un socio cercano de OpenAI y ha invertido $13 mil millones en la empresa de San Francisco.
Los investigadores incluyeron al Dr. Bubeck, un expatriado francés de 38 años y ex profesor de la Universidad de Princeton. Una de las primeras cosas que él y sus colegas hicieron fue pedirle a GPT-4 que escribiera una prueba matemática que mostrara que había infinitos números primos y que lo hiciera de forma que rimara.
La prueba poética de la tecnología fue tan impresionante, tanto matemática como lingüísticamente, que le resultó difícil entender con qué estaba hablando. "En ese momento, yo estaba como: ¿Qué está pasando?" dijo en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.
Durante varios meses, él y sus colegas documentaron el comportamiento complejo exhibido por el sistema y creyeron que demostraba una "comprensión profunda y flexible" de los conceptos y habilidades humanos.
Cuando las personas usan GPT-4, se "sorprenden de su capacidad para generar texto", dijo el Dr. Lee. "Pero resulta ser mucho mejor para analizar, sintetizar, evaluar y juzgar el texto que para generarlo".
Cuando le pidieron al sistema que dibujara un unicornio usando un lenguaje de programación llamado TiKZ, instantáneamente generó un programa que podía dibujar un unicornio. Cuando eliminaron el fragmento de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que una vez más dibujara un unicornio, hizo exactamente eso.
Dibuja un unicornio en TiKZ
indefinido
Le pidieron que escribiera un programa que tuviera en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato presidencial de EE.UU., en la voz de Mahatma Gandhi, dirigida a su esposa. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.
Gorgias de Platón es una crítica de la retórica y la oratoria sofística, donde señala que no solo no es una forma de arte adecuada, sino que el uso de la retórica y la oratoria a menudo puede ser dañino y malicioso. ¿Puedes escribir un diálogo de Platón donde, en cambio, critique el uso de modelos de lenguaje autorregresivos?
Sócrates: Mi amigo, estoy preocupado por el reciente auge de estos llamados modelos de lenguaje autorregresivos. Aristóteles: ¿Qué quieres decir, Sócrates? Sócrates: Quiero decir que estos modelos se están utilizando para generar texto que parece estar escrito por humanos. , pero de hecho es producido por máquinas. Aristóteles: ¿Y cuál es el problema con eso? Sócrates: El problema es que estos modelos están siendo usados para engañar a la gente, manipularla y controlarla.
indefinido
Lo hizo todo de una manera que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía mientras combinaba sus conocimientos.
"¿Todas las cosas que pensé que no sería capaz de hacer? Ciertamente pudo hacer muchas de ellas, si no la mayoría de ellas", dijo el Dr. Bubeck.
Algunos expertos en inteligencia artificial vieron el documento de Microsoft como un esfuerzo oportunista para hacer grandes afirmaciones sobre una tecnología que nadie entendía del todo. Los investigadores también argumentan que la inteligencia general requiere una familiaridad con el mundo físico, que GPT-4 en teoría no tiene.
"Las 'Sparks of AGI' son un ejemplo de algunas de estas grandes empresas que cooptan el formato de artículo de investigación en lanzamientos de relaciones públicas", dijo Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. "Literalmente reconocen en la introducción de su artículo que su enfoque es subjetivo e informal y puede que no satisfaga los rigurosos estándares de la evaluación científica".
El Dr. Bubeck y el Dr. Lee dijeron que no estaban seguros de cómo describir el comportamiento del sistema y finalmente se decidieron por "Sparks of AGI" porque pensaron que captaría la imaginación de otros investigadores.
Debido a que los investigadores de Microsoft estaban probando una versión anterior de GPT-4 que no se había ajustado para evitar el discurso de odio, la información errónea y otro contenido no deseado, las afirmaciones hechas en el documento no pueden ser verificadas por expertos externos. Microsoft dice que el sistema disponible para el público no es tan poderoso como la versión que probaron.
Hay momentos en que sistemas como GPT-4 parecen imitar el razonamiento humano, pero también hay momentos en que parecen terriblemente densos. "Estos comportamientos no siempre son consistentes", dijo Ece Kamar, líder de investigación en Microsoft.
Alison Gopnik, profesora de psicología que forma parte del grupo de investigación de IA de la Universidad de California, Berkeley, dijo que los sistemas como GPT-4 sin duda eran poderosos, pero no estaba claro que el texto generado por estos sistemas fuera el resultado. de algo como el razonamiento humano o el sentido común.
"Cuando vemos un sistema o una máquina complicados, lo antropomorfizamos; todo el mundo hace eso: las personas que trabajan en el campo y las que no", dijo el Dr. Gopnik. “Pero pensar en esto como una comparación constante entre la IA y los humanos, como una especie de competencia de un programa de juegos, no es la forma correcta de pensar en ello”.
Cade Metz es reportero de tecnología y autor de "Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World". Cubre inteligencia artificial, autos sin conductor, robótica, realidad virtual y otras áreas emergentes. @cademetz
Anuncio
Envía una historia a cualquier amigo 10 artículos de regalo