Todos quieren regular la Inteligencia Artificial
En mayo, cientos de destacadas figuras en el campo de la inteligencia artificial emitieron una declaración conjunta describiendo la amenaza existencial que la tecnología que ayudaron a crear representa para la humanidad.
«Mitigar el riesgo de extinción por la IA debe ser una prioridad global», afirmaron, «junto con otros riesgos a escala societal, como pandemias y guerra nuclear.»
Esa única frase, invocando la amenaza de la erradicación humana, firmada por cientos de directores ejecutivos y científicos de empresas como OpenAI, DeepMind de Google, Anthropic y Microsoft, hizo titulares a nivel mundial.
Lo que impulsó a todos estos expertos a hablar fue la promesa, pero también el riesgo, de la IA generativa, un tipo de tecnología que puede procesar y generar vastas cantidades de datos.
El lanzamiento de ChatGPT por OpenAI en noviembre generó una oleada de entusiasmo febril, ya que demostró la capacidad de los grandes modelos de lenguaje, la tecnología subyacente detrás del chatbot, para crear pasajes convincentes de texto, capaces de escribir un ensayo o mejorar tus correos electrónicos.
Esto desató una carrera entre las empresas del sector para lanzar sus propias herramientas de IA generativa para consumidores que pudieran generar texto e imágenes realistas.
Sin embargo, la histeria en torno a la tecnología también ha llevado a un mayor conocimiento de sus peligros: el potencial para crear y difundir desinformación a medida que se acercan las elecciones democráticas, su capacidad para reemplazar o transformar empleos, especialmente en industrias creativas, y el riesgo menos inmediato de que se vuelva más inteligente que los humanos y los supere.
El enfoque de la Unión Europea
Bruselas ha redactado medidas estrictas sobre el uso de la IA que pondrían la responsabilidad en los grupos tecnológicos para garantizar que sus modelos no violen las reglas. Su innovador Acta de Inteligencia Artificial se espera que sea completamente aprobada a finales de año, pero incluye un período de gracia de aproximadamente dos años después de su entrada en vigor para que las empresas cumplan.
Los reguladores y las empresas tecnológicas han expresado enérgicamente la necesidad de controlar la IA, pero las ideas sobre cómo regular los modelos y sus creadores han divergido ampliamente por región.
La Unión Europea ha redactado medidas estrictas sobre el uso de la IA que ponen la responsabilidad en las empresas tecnológicas para asegurarse de que sus modelos no infrinjan las reglas. Han avanzado mucho más rápido que Estados Unidos, donde los legisladores están preparando una amplia revisión de la IA para determinar primero qué elementos de la tecnología podrían necesitar una nueva regulación y qué se puede cubrir con las leyes existentes.
Por su parte, el Reino Unido está tratando de utilizar su nueva posición fuera de la UE para diseñar su propio régimen más flexible que regularía las aplicaciones de la IA por sector en lugar del software subyacente. Se espera que tanto el enfoque estadounidense como el británico sean más proindustriales que la ley de Bruselas, que ha sido fuertemente criticada por la industria tecnológica.
Sin embargo, las restricciones más estrictas sobre los creadores de IA podrían ser introducidas por China mientras busca equilibrar los objetivos entre controlar la información generada por los modelos generativos y competir en la carrera tecnológica con Estados Unidos.
Estos enfoques divergentes corren el riesgo de enredar a la industria de la IA en la burocracia, ya que los regímenes locales deben alinearse con otros países para que la tecnología, que no tiene fronteras, pueda ser plenamente controlada.
Coordinación Internacional
Algunos están tratando de coordinar un enfoque común. En mayo, los líderes de las naciones del G7 encargaron un grupo de trabajo para armonizar los regímenes regulatorios denominado Proceso de IA de Hiroshima. Buscan asegurar que la legislación sea interoperable entre los países miembros. Mientras tanto, el Reino Unido organiza una cumbre mundial de IA en noviembre para discutir cómo la coordinación internacional en la regulación puede mitigar el riesgo.
Pero cada región tiene sus propias ideas fijas sobre cómo regular mejor la IA, y los expertos advierten que, a medida que la tecnología se difunde rápidamente en el uso común, el tiempo para forjar un consenso ya se agota.
En julio, la OCDE advirtió que las ocupaciones en mayor riesgo de ser desplazadas por la IA serían empleos altamente calificados de cuello blanco, que representan aproximadamente el 27 por ciento del empleo en las economías miembros. Su informe destacó una «necesidad urgente de actuar» y coordinar respuestas para «evitar una carrera hacia el abismo.»
«Estamos en un punto en el que [la regulación] no es un lujo», dice el profesor David Leslie del Instituto Alan Turing, el instituto nacional del Reino Unido para la ciencia de datos y la IA. «Es una necesidad tener una acción internacional más concertada aquí porque las consecuencias de la propagación de la IA generativa no son nacionales, son globales.»
El efecto Bruselas
La Unión Europea ha sido característicamente la primera en actuar con su Acta de Inteligencia Artificial, que se espera que esté completamente aprobada a finales de año. Este movimiento se puede ver como un intento de establecer un modelo para que otros países lo imiten, al igual que su Reglamento General de Protección de Datos Europeos, que ha proporcionado un marco para las leyes de protección de datos en todo el mundo.
El enfoque del Reino Unido
Londres está tratando de utilizar su nueva posición fuera de la UE para diseñar su propio régimen más flexible que regularía las aplicaciones de la IA por sector en lugar del software subyacente. El Reino Unido organiza una cumbre mundial de IA en noviembre para discutir cómo la coordinación internacional en la regulación puede mitigar el riesgo.
El trabajo en la legislación de la IA comenzó hace varios años, cuando los responsables de la formulación de políticas estaban ansiosos por frenar los usos imprudentes de la tecnología en aplicaciones como el reconocimiento facial. «Tuvimos la visión de que [la IA] estaba lista para la regulación», dice Dragoş Tudorache, un miembro del Parlamento Europeo que lideró el desarrollo de las propuestas. «Luego descubrimos que apuntar a los riesgos en lugar de la tecnología era el mejor enfoque para evitar barreras innecesarias a la innovación.»
Después de años de consulta, sin embargo, la IA generativa cambió su enfoque. En respuesta a la tecnología, los miembros del Parlamento Europeo propusieron una serie de enmiendas para agregar a la legislación que se aplica a los llamados modelos fundamentales, la tecnología subyacente detrás de los productos de IA generativa.
Estas propuestas harían que los creadores de dichos modelos fueran responsables de cómo se utiliza su tecnología, incluso cuando otra parte la haya incorporado en un sistema diferente.
Por ejemplo, si otra empresa o desarrollador licenciara un modelo, el creador original seguiría siendo responsable de cualquier infracción de la ley. «No esperarías que el fabricante de una máquina de escribir sea responsable de algo difamatorio. Tenemos que establecer una línea razonable, y para la mayoría de los sistemas legales, esa línea está donde existe un riesgo previsible de daño», dice Kent Walker, presidente de asuntos globales de Google.
Los fabricantes de modelos también estarán obligados a identificar y divulgar los datos en los que se han entrenado los sistemas para asegurarse de que los creadores de contenido, como texto o imágenes, reciban una compensación bajo las enmiendas.
Las propuestas llevaron a más de 150 empresas a firmar una carta a la Comisión Europea, el Parlamento y los Estados miembros en junio, advirtiendo que las propuestas podrían «poner en peligro la competitividad europea». Las empresas, que iban desde el fabricante de automóviles Renault hasta la cervecera Heineken, argumentaron que los cambios creaban costos de cumplimiento desproporcionados para las empresas que desarrollan e implementan la tecnología.
«Intentaremos cumplir, pero si no podemos, dejaremos de operar», dijo Sam Altman, director ejecutivo de OpenAI, a los reporteros en mayo, a raíz de las enmiendas. Más tarde, dio marcha atrás y tuiteó que la compañía no tenía planes de abandonar Europa.
Peter Schwartz, vicepresidente senior de planificación estratégica de la empresa de software Salesforce, advirtió en términos personales que el enfoque podría tener un impacto en la forma en que algunas otras empresas estadounidenses operan en la región.
El enfoque de Estados Unidos
Los legisladores están preparando una amplia revisión de la IA para determinar primero qué elementos de la tecnología podrían necesitar una nueva regulación y qué se puede cubrir con las leyes existentes. Hasta ahora, Washington ha permitido que la industria se regule a sí misma, con Microsoft, OpenAI, Google, Amazon y Meta firmando un conjunto de compromisos voluntarios en julio.
«Regular los modelos tendería a beneficiar a aquellos que ya están en el mercado… Excluiría a los nuevos participantes y prácticamente paralizaría la comunidad de código abierto», dice Chris Padilla, vicepresidente de asuntos gubernamentales y regulatorios de IBM.
Padilla dice que la regulación de los modelos podría constituir un «exceso regulatorio» con «un riesgo real de daño colateral o consecuencias no deseadas», donde las empresas más pequeñas no pueden cumplir y escalar.
En contraste, el Reino Unido ha delineado lo que llama un marco de «proinnovación» para la regulación de la IA en un esperado libro blanco publicado en marzo. Ahora ha invitado a las partes interesadas a compartir sus opiniones sobre sus propuestas, que otorgarían al gobierno la capacidad de regular cómo se utilizan los sistemas de IA en lugar de controlar la tecnología en sí. El Reino Unido tiene como objetivo otorgar poderes a los reguladores existentes para hacer cumplir estas regulaciones, por lo que se espera que este régimen sea más flexible y rápido de implementar que las alternativas.
Sin embargo, el gobierno aún no ha respondido a la consulta ni ha emitido orientación de implementación a los diferentes reguladores sectoriales, por lo que podría pasar algún tiempo antes de que alguna regulación realmente entre en vigor.
Mientras tanto, ha permitido en gran medida que la industria se regule a sí misma, con Microsoft, OpenAI, Google, Amazon y Meta firmando un conjunto de compromisos voluntarios en la Casa Blanca en julio.
Los compromisos incluyen pruebas internas y externas de sistemas de IA antes de que se lancen al público, ayudar a las personas a identificar contenido generado por IA y aumentar la transparencia sobre las capacidades y limitaciones de los sistemas.
«La naturaleza misma del hecho de que sean voluntarios por parte de las empresas significa que no están inhibiendo la capacidad de innovar en esta importante área de tecnología nueva. Voluntario significa rápido. No tenemos una década para establecer una estructura de gobernanza aquí, dada la rapidez del cambio tecnológico. Estos compromisos son un primer paso. No son el último paso.»
Nathaniel Fick, embajador en jefe del Departamento de Estado de Estados Unidos para el espacio cibernético y la política digital.
El Congreso ha indicado que tomará un enfoque considerado pero cauteloso para redactar la legislación. En junio, el líder de la mayoría en el Senado, Chuck Schumer, presentó un marco para la regulación de la IA que comenzaría con «foros de perspicacia» para que los legisladores aprendan sobre la tecnología de ejecutivos de la industria, expertos y activistas.
La administración del presidente Joe Biden ha indicado que está trabajando en una orden ejecutiva para promover la «innovación responsable», pero no está claro cuándo se firmará ni qué medidas incluirá. Sin embargo, es probable que se enfoque tanto en limitar la capacidad de China para comprar programas de IA como en establecer límites para las empresas estadounidenses.
Las tensiones geopolíticas también influyen en la cumbre del Reino Unido en noviembre, ya que el gobierno ha dicho que invitará a «países afines» a participar. Un informe de Sifted afirmó recientemente que China ha sido invitada, pero solo seis de los 27 estados miembros de la UE. El gobierno se negó a hacer comentarios.
«Necesitamos encontrar un equilibrio entre los enfoques nacionales e la armonización internacional», dice Fick. «Creo que siempre hay tensión en estas tecnologías globales.»
China vs. Estados Unidos
A pesar de los temores sobre la legislación en Europa, algunos dicen que los mayores actores de la industria prestan más atención a lo que están haciendo las superpotencias rivales del mundo.
«Las empresas que hacen esto están compitiendo entre Estados Unidos y China», dice Dame Wendy Hall, copresidenta de la revisión de IA del gobierno en 2017 y profesora regius de ciencias de la computación en la Universidad de Southampton. «Europa, ya sea que estemos hablando de la UE o del Reino Unido, no tiene control sobre esas empresas a menos que quieran comerciar en Europa. Dependemos en gran medida de lo que hacen los gobiernos chinos o estadounidenses en términos de regulación de las empresas en general.»
China ha introducido regulaciones específicas para varias nuevas tecnologías, incluidos algoritmos de recomendación y IA generativa, y se está preparando para redactar una ley nacional de IA más amplia en los próximos años. Su prioridad es controlar la información a través de la regulación de la IA, reflejada en las últimas regulaciones de IA generativa, que exigen el cumplimiento de los «valores fundamentales del socialismo».
Mientras tanto, los proveedores de IA generativa cuyos productos pueden «impactar la opinión pública» deben someterse a revisiones de seguridad, según la regulación que entró en vigor en agosto. Un puñado de empresas tecnológicas chinas, incluidas Baidu y ByteDance, recibieron la aprobación y lanzaron sus productos de IA generativa al público hace dos semanas.
Tales restricciones también se aplicarían a empresas extranjeras, lo que dificultaría ofrecer servicios de IA generadora de contenido a consumidores en China.
Lo que las empresas pueden hacer
Pasará algún tiempo antes de que la industria de la IA esté sujeta a niveles significativos de escrutinio. Incluso el Acta de IA de la UE, que está más cerca de ser finalizada, incluye un período de gracia de aproximadamente dos años después de su entrada en vigor para que las empresas cumplan.
Pero determinar el cumplimiento entre regiones será difícil dada la falta de terreno regulatorio común. Las empresas deberán examinar cuidadosamente cómo operar en mercados específicos y si requerirá diseñar modelos diferentes o ofrecer diferentes servicios para cumplir en una región particular.
Microsoft y Google no especularon sobre si cambiarían los modelos en este caso, pero dijeron que se esforzarían por cumplir con las leyes locales.
En resumen, mientras que la inteligencia artificial generativa promete un mundo de oportunidades, también presenta desafíos significativos que deben abordarse a nivel global. Las divergencias en la regulación de diferentes regiones plantean preguntas importantes sobre la seguridad, la responsabilidad y la cooperación internacional en esta era de avances tecnológicos sin precedentes. A medida que avanzamos hacia el futuro, queda por verse cómo se enfrentarán estos desafíos y qué impacto tendrán en la sociedad en su conjunto.
Vía: FT.