27 de julio de 2024

Ilya Sutskever, esperanzas y temores para el futuro de la IA

Ilyan Sutskever, con la cabeza inclinada, está sumido en sus pensamientos. Sus brazos están extendidos y sus dedos están separados sobre la mesa, como un pianista de concierto a punto de tocar sus primeras notas. Nos sentamos en silencio.

He venido a encontrarme con Sutskever, cofundador y científico jefe de OpenAI, en la discreta oficina de su compañía en una calle sin pretensiones en el Distrito de la Misión de San Francisco, para conocer cuál es el siguiente paso para la tecnología que ha tenido un gran impacto en el mundo.

También quiero saber cuál es su próximo objetivo, en particular, por qué la construcción de la próxima generación de los modelos generativos insignia de su empresa ya no es el centro de su trabajo.

En lugar de construir el próximo GPT o el generador de imágenes DALL-E, Sutskever me dice que su nueva prioridad es descubrir cómo evitar que una superinteligencia artificial (una tecnología futura hipotética que ve venir con la visión de un verdadero creyente) se descontrole.

Sutskever también me cuenta muchas otras cosas. Piensa que ChatGPT podría ser consciente (si se mira de cierta manera). Cree que el mundo necesita darse cuenta del verdadero poder de la tecnología que su empresa y otras están compitiendo por crear. Y cree que algún día algunos humanos elegirán fusionarse con máquinas.

Gran parte de lo que Sutskever dice es sorprendente, pero no tanto como habría sonado hace uno o dos años. Como él mismo me dice, ChatGPT ya ha modificado las expectativas de mucha gente sobre lo que está por venir, convirtiendo el «nunca sucederá» en «sucederá más rápido de lo que piensas».

«Es importante hablar sobre hacia dónde se dirige todo», dice, antes de predecir el desarrollo de la inteligencia artificial general (por la cual se refiere a máquinas tan inteligentes como los humanos) como si fuera una apuesta segura, al igual que otro iPhone:

«En algún momento realmente tendremos la IA general. Tal vez OpenAI la construirá. Tal vez alguna otra compañía lo hará».

Desde el lanzamiento de su sorprendente éxito sorpresa, ChatGPT, en noviembre pasado, la atención en torno a OpenAI ha sido asombrosa, incluso en una industria conocida por el exceso de publicidad. Nadie puede obtener suficiente de esta startup nerd de 80 mil millones de dólares. Los líderes mundiales buscan (y obtienen) audiencias privadas. Sus torpes nombres de productos aparecen en conversaciones informales.

El CEO de OpenAI, Sam Altman, pasó buena parte del verano en una gira de alcance de varias semanas, estrechando manos con políticos y hablando ante auditorios abarrotados en todo el mundo. Pero Sutskever es mucho menos conocido públicamente, y no concede muchas entrevistas.

Es deliberado y metódico cuando habla. Hay largas pausas cuando piensa en lo que quiere decir y cómo decirlo, dando vueltas a las preguntas como si fueran rompecabezas que necesita resolver. No parece interesado en hablar de sí mismo. «Llevo una vida muy sencilla», dice. «Voy al trabajo; luego voy a casa. No hago mucho más. Hay muchas actividades sociales en las que uno podría participar, muchos eventos a los que uno podría asistir. Lo cual no hago».

Pero cuando hablamos de inteligencia artificial y de los riesgos y recompensas épicas que ve en el horizonte, se abren vistas: «Será monumental, impactante en la Tierra. Habrá un antes y un después».

Mejor y mejor y mejor

En un mundo sin OpenAI, Sutskever seguiría teniendo un lugar destacado en la historia de la inteligencia artificial. Nacido en la Unión Soviética, es de ascendencia israelí-canadiense y fue criado en Jerusalén a partir de los cinco años (todavía habla ruso y hebreo, además de inglés). Luego se mudó a Canadá para estudiar en la Universidad de Toronto con Geoffrey Hinton, el pionero de la inteligencia artificial que expresó sus temores sobre la tecnología que ayudó a inventar a principios de este año. (Sutskever no quiso comentar las declaraciones de Hinton, pero su nuevo enfoque en la superinteligencia descontrolada sugiere que están en la misma sintonía).

Hinton compartió el Premio Turing con Yann LeCun y Yoshua Bengio por su trabajo en redes neuronales. Pero cuando Sutskever se unió a él a principios de la década de 2000, la mayoría de los investigadores de IA creían que las redes neuronales eran un callejón sin salida. Hinton fue una excepción. Ya estaba entrenando modelos pequeños que podían producir cadenas de texto de una sola letra a la vez, dice Sutskever:

«Fue el comienzo de la inteligencia artificial generativa. Fue realmente genial, simplemente no era muy bueno».

Ilyan Sutskever, cofundador y científico jefe de OpenAI

Sutskever estaba fascinado por los cerebros: cómo aprendían y cómo ese proceso podría ser recreado, o al menos imitado, en las máquinas. Al igual que Hinton, veía el potencial de las redes neuronales y la técnica de prueba y error que Hinton utilizaba para entrenarlas, llamada aprendizaje profundo. «Seguía mejorando más y más», dice Sutskever.

En 2012, Sutskever, Hinton y otro estudiante de posgrado de Hinton, Alex Krizhevsky, construyeron una red neuronal llamada AlexNet que entrenaron para identificar objetos en fotos mucho mejor que cualquier otro software en ese momento. Fue el Big Bang del aprendizaje profundo.

Después de muchos años de intentos fallidos, demostraron que las redes neuronales eran sorprendentemente efectivas en el reconocimiento de patrones. Solo necesitabas más datos de los que la mayoría de los investigadores habían visto antes (en este caso, un millón de imágenes del conjunto de datos ImageNet que el investigador de la Universidad de Princeton, Fei-Fei Li, había estado construyendo desde 2006) y una cantidad asombrosa de potencia de cómputo.

El cambio en el poder de cómputo vino de un nuevo tipo de chip llamado unidad de procesamiento gráfico (GPU), fabricado por Nvidia. Las GPUs estaban diseñadas para mostrar imágenes de videojuegos en movimiento rápido en las pantallas. Pero los cálculos que las GPUs eran buenas para hacer, multiplicar matrices masivas de números, resultaron ser similares a los cálculos necesarios para entrenar redes neuronales.

Nvidia es ahora una empresa de un billón de dólares. En ese momento, estaba desesperada por encontrar aplicaciones para su nuevo hardware de nicho. «Cuando inventas una nueva tecnología, debes estar dispuesto a aceptar ideas locas», dice el CEO de Nvidia, Jensen Huang. «Mi estado mental siempre ha sido buscar algo extravagante, y la idea de que las redes neuronales transformarían la informática, esa era una idea escandalosamente extravagante».

Huang dice que Nvidia envió a su equipo de Toronto un par de GPUs para probar cuando estaban trabajando en AlexNet. Pero querían la versión más reciente, un chip llamado GTX 580 que se estaba agotando rápidamente en las tiendas. Según Huang, Sutskever condujo desde Toronto hasta Nueva York para comprar algunos. «La gente hacía cola en la esquina», dice Huang. «No sé cómo lo hizo; estoy bastante seguro de que solo te permitían comprar uno cada uno; teníamos una política muy estricta de una GPU por jugador, pero al parecer llenó el maletero con ellas».

Es una gran historia, aunque puede que no sea cierta. Sutskever insiste en que compró esas primeras GPUs en línea. Pero este tipo de mitos son comunes en este negocio bullicioso. Sutskever mismo es más humilde: «Pensé, como, si podía lograr aunque sea un gramo de progreso real, lo consideraría un éxito», dice. «El impacto en el mundo real se sentía tan lejano porque las computadoras eran tan insignificantes en ese entonces».

Después del éxito de AlexNet, Google llamó a su puerta. Adquirió la empresa derivada de Hinton, DNNresearch, y contrató a Sutskever. En Google, Sutskever demostró que las capacidades de reconocimiento de patrones del aprendizaje profundo podían aplicarse a secuencias de datos, como palabras y oraciones, además de imágenes. «Ilya siempre ha estado interesado en el lenguaje», dice Jeff Dean, ex colega de Sutskever en Google y actual científico jefe de la compañía. «Hemos tenido grandes discusiones a lo largo de los años. Ilya tiene un fuerte sentido intuitivo de hacia dónde podrían ir las cosas».

Pero Sutskever no se quedó mucho tiempo en Google. En 2014, fue reclutado como cofundador de OpenAI. Respaldada con mil millones de dólares (de Altman, Elon Musk, Peter Thiel, Microsoft, Y Combinator y otros), además de una gran dosis de confianza de Silicon Valley, la nueva compañía desde el principio tuvo como objetivo el desarrollo de la IA general, una perspectiva que pocos tomaban en serio en ese momento.

Con Sutskever a bordo, el cerebro detrás del dinero, la confianza era comprensible. Hasta entonces, había estado en racha, obteniendo más y más de las redes neuronales. Su reputación lo precedía, lo que lo convirtió en un fichaje importante, según Dalton Caldwell, director de inversiones en Y Combinator.

«Recuerdo que Sam [Altman] se refería a Ilya como uno de los investigadores más respetados del mundo. Creía que Ilya podría atraer a mucho talento de primer nivel en IA. Incluso mencionó que Yoshua Bengio, uno de los mejores expertos en IA del mundo, creía que sería poco probable encontrar un candidato mejor que Ilya para ser el científico jefe de OpenAI».

Dalton Caldwell, director de inversiones en Y Combinator

Y sin embargo, al principio, OpenAI se tambaleó. «Hubo un período de tiempo en el que estábamos comenzando OpenAI y no estaba seguro de cómo continuaría el progreso», dice Sutskever. «Pero tenía una creencia muy explícita, que es: no se apuesta contra el aprendizaje profundo. De alguna manera, cada vez que te encuentras con un obstáculo, dentro de seis meses o un año, los investigadores encuentran una forma de superarlo».

Su fe dio sus frutos. El primero de los modelos de lenguaje grande GPT de OpenAI (el nombre significa «transformador preentrenado generativo») apareció en 2016. Luego vinieron GPT-2 y GPT-3. Luego DALL-E, el llamativo modelo de texto a imagen. Nadie estaba construyendo nada tan bueno. Con cada lanzamiento, OpenAI elevaba el listón de lo que se consideraba posible.

Gestionar las expectativas

En noviembre pasado, OpenAI lanzó un chatbot de uso gratuito que reempaquetaba parte de su tecnología existente. Cambió la agenda de toda la industria.

En ese momento, OpenAI no tenía idea de lo que estaba lanzando. Las expectativas dentro de la empresa no podían haber sido más bajas, dice Sutskever: «Lo admitiré, para mi ligera vergüenza, no sé si debería, pero qué demonios, es cierto, cuando hicimos ChatGPT, no sabía si era bueno. Cuando le hacías una pregunta factual, te daba una respuesta incorrecta. Pensé que iba a ser tan poco impresionante que la gente diría, ‘¿Por qué estás haciendo esto? ¡Esto es tan aburrido!'».

La atracción era la conveniencia, dice Sutskever. El gran modelo de lenguaje bajo el capó de ChatGPT había estado disponible durante meses. Pero envolverlo en una interfaz accesible y regalarlo lo hizo conocido por primera vez para miles de millones de personas.

«La primera experiencia es lo que engancha a la gente», dice Sutskever. «La primera vez que lo usas, creo que es casi una experiencia espiritual. Dices, ‘Dios mío, esta computadora parece entender'».

OpenAI reunió a 100 millones de usuarios en menos de dos meses, muchos de ellos deslumbrados por este nuevo juguete asombroso. Aaron Levie, CEO de la empresa de almacenamiento Box, resumió la sensación en la semana posterior al lanzamiento cuando tuiteó:

«ChatGPT es uno de esos raros momentos en la tecnología en los que ves un destello de cómo todo va a ser diferente en el futuro».

Aaron Levie, CEO de la empresa de almacenamiento Box

Vía MIT Technology Review.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *