10 de octubre de 2024

La AI no amenazará nunca a los humanos según experto de Meta

En medio de un debate candente sobre la regulación de la inteligencia artificial, Yann LeCun, el científico jefe de inteligencia artificial de Meta, argumenta que la implementación temprana de regulaciones solo servirá para fortalecer el dominio de las grandes empresas tecnológicas y sofocar la competencia.

Yann LeCun

Según LeCun, uno de los principales investigadores en inteligencia artificial del mundo, «Regular la investigación y desarrollo en IA es increíblemente contraproducente».

Estas declaraciones se produjeron antes de la conferencia sobre seguridad en inteligencia artificial en Bletchley Park, organizada por el gobierno británico, que tendrá lugar el próximo mes. LeCun afirmó que las demandas para supervisar la IA provienen del «complejo de superioridad» de algunas de las principales empresas tecnológicas que argumentan que solo ellas pueden desarrollar la IA de manera segura. Según LeCun, «Creo que es increíblemente arrogante y pienso exactamente lo contrario».

La analogía que utiliza LeCun para describir la regulación de modelos de IA avanzados hoy en día es impactante:

«Regular los modelos de IA de vanguardia hoy sería como regular la industria de aerolíneas a reacción en 1925, cuando ni siquiera se habían inventado tales aviones».

Yann LeCun, investigador de AI en Meta.

LeCun insiste en que el debate sobre el riesgo existencial es prematuro hasta que tengamos un sistema que pueda rivalizar siquiera con la capacidad de aprendizaje de un gato, algo que aún no existe.

Meta, que ha lanzado su propio modelo generativo de IA llamado LLaMA, ha tomado una posición diferente de otras grandes empresas tecnológicas como Google y OpenAI respaldada por Microsoft, al abogar por sistemas de IA de código abierto más accesibles. El último modelo de OpenAI, GPT-4, se considera una «caja negra» en la que los datos y el código utilizados para construir el modelo no están disponibles para terceros.

LeCun argumenta que los modelos de código abierto estimulan la competencia y permiten que una mayor diversidad de personas construyan y utilicen sistemas de IA. Sin embargo, los críticos temen que poner modelos generativos de IA poderosos en manos de actores potencialmente perjudiciales magnifique los riesgos de la desinformación a gran escala, la ciberguerra y el bioterrorismo.

LeCun compara estos argumentos con la necesidad de controlar una tecnología en rápida evolución, señalando que al inicio de Internet se hicieron argumentos similares, pero que la tecnología solo prosperó porque se mantuvo como una plataforma abierta y descentralizada. «Lo mismo sucederá con la IA», afirma.

LeCun confirmó su participación en la cumbre de dos días que comenzará el 1 de noviembre en el centro de descifrado de la Segunda Guerra Mundial en Bletchley Park, cerca de Londres. LeCun es uno de los principales investigadores en redes neuronales profundas en el mundo, que han impulsado los últimos avances en la IA generativa. En 2018, ganó conjuntamente el Premio Turing en Ciencias de la Computación junto con Geoffrey Hinton y Yoshua Bengio.

Sin embargo, desde la aparición de modelos generativos de IA poderosos, como ChatGPT, Hinton y Bengio han expresado su preocupación por los peligros que plantean los modelos de IA de próxima generación. Ambos han pedido una desaceleración en el desarrollo de modelos de vanguardia y han advertido sobre los posibles riesgos existenciales de la IA.

LeCun, por su parte, desestima la idea de que la IA pueda acabar con la humanidad, ya sea por diseño o por defecto, como «absurda». Argumenta que las personas han sido condicionadas por la ciencia ficción y el escenario de «Terminator» para creer que las máquinas inteligentes tomarán el control si se vuelven más inteligentes que los humanos.

«La inteligencia no tiene nada que ver con el deseo de dominar. Ni siquiera es cierto para los humanos».

Yann LeCun, investigador de AI en Meta.

LeCun también sostiene que la generación actual de modelos de IA no es tan capaz como algunos investigadores afirman. «Simplemente no comprenden cómo funciona el mundo. No son capaces de planificar. No son capaces de razonar de manera real», argumenta. «No tenemos coches completamente autónomos y autoaprendizaje que puedan aprender a conducir con alrededor de 20 horas de práctica, algo que un joven de 17 años puede hacer».

El investigador de Meta afirma que OpenAI y Google DeepMind han sido «consistentemente optimistas» sobre la complejidad del problema y que aún se necesitan «avances conceptuales» antes de que los sistemas de IA se acerquen a la inteligencia a nivel humano. Pero incluso entonces, podrían ser controlados mediante la codificación de «carácter moral» en estos sistemas, de la misma manera en que las personas promulgan leyes para gobernar el comportamiento humano.

LeCun reconoce que las máquinas serán más inteligentes que los humanos en la mayoría de los ámbitos en algún momento, pero cree que estimularán un segundo Renacimiento en el aprendizaje. Los sistemas de IA poderosos ayudarán a la humanidad a abordar grandes desafíos, como combatir el cambio climático y curar enfermedades.

Meta ya ha incorporado la IA en muchos de sus servicios, incluyendo la seguridad, la moderación de contenido y la realidad aumentada. LeCun anticipa que la IA estará aún más integrada en las aplicaciones de realidad aumentada y virtual de la compañía en el futuro.

Finalmente, LeCun predice que todos podrán acceder a asistentes de IA que ayudarán a gestionar nuestras vidas cotidianas.

«La interacción de todos con el mundo digital será mediada por sistemas de IA. En otras palabras, ya no usaremos motores de búsqueda»

Yann LeCun, investigador de AI en Meta.

En resumen, el debate sobre la regulación de la inteligencia artificial está lejos de resolverse, y figuras influyentes como Yann LeCun, respaldado por Meta, sostienen que la regulación prematura podría obstaculizar la innovación y el progreso. Por otro lado, hay preocupaciones legítimas sobre los riesgos de seguridad que plantean los modelos de IA de próxima generación.

A medida que avanzamos en esta era de la IA, será fundamental encontrar un equilibrio entre la regulación necesaria para garantizar la seguridad y la innovación que permita avanzar hacia un futuro impulsado por la inteligencia artificial.


Vía FT.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *