21 de noviembre de 2024

La AI Generativa en la encrucijada de la investigación científica

En la edición de agosto de Política de Recursos, una revista académica afiliada a Elsevier, emergió un estudio revisado por pares que abordaba el impacto del comercio electrónico en la eficiencia de los combustibles fósiles en naciones en desarrollo.

Sin embargo, lo que llamó la atención no fue tanto el contenido, sino una oración en particular: «Tenga en cuenta que, como modelo de lenguaje AI, no puedo generar tablas específicas o realizar pruebas, entonces los resultados reales deben incluirse en la tabla.»

Esto llamó la atención de la comunidad académica y generó una investigación por parte de Elsevier sobre el uso de inteligencia artificial en el artículo. La advertencia, familiar para los usuarios de ChatGPT y otros chatbots generativos, plantea cuestiones sobre cómo se está empleando la I.A. en la redacción académica y cuáles son las implicaciones éticas y de integridad.

Aunque los tres autores mencionados no parecían ser I.A. en sí mismos, la coincidencia con las frases de advertencia de chatbots generativos despertó preocupaciones sobre la transparencia en la utilización de la tecnología. El uso de la I.A. generativa en la redacción científica plantea interrogantes sobre la autoría y la originalidad, así como la validez y confiabilidad de los contenidos.

La controversia refleja la preocupación creciente en diversas disciplinas ante el avance de la I.A. generativa. Desde maestros hasta profesionales de los medios de comunicación, todos se preguntan si la tecnología amenaza la integridad y la calidad. Las revistas científicas, en particular, enfrentan un desafío: ¿cómo equilibrar los beneficios potenciales de la I.A. generativa en el proceso de redacción con la necesidad de mantener altos estándares éticos y de integridad?

Las revistas han adoptado enfoques diversos para enfrentar esta situación. Mientras algunas, como JAMA Network, exigen la divulgación completa del uso de I.A. generativa, otras como PLOS ONE solicitan detalles sobre la herramienta utilizada y su validación. La diversidad de enfoques refleja la complejidad de la cuestión y la falta de una solución única.

La escritura generada por I.A. podría ofrecer eficiencia y claridad en el proceso de redacción científica, especialmente para aquellos cuyo idioma nativo no es el inglés. Sin embargo, el potencial de malentendidos, plagio y contenido inexacto también es real. La falta de divulgación y validación podría afectar la credibilidad de la investigación y la integridad del proceso.

Es un equilibrio delicado, pero necesario para mantener la confianza en la academia y la calidad de la producción científica. Los avances tecnológicos han hecho que los modelos de lenguaje sean más sofisticados, pero también plantean desafíos para detectar su uso no revelado.

Guillaume Cabanac, profesor de informática, ha estado investigando la detección de frases generadas por I.A. en la redacción académica. A medida que la tecnología evoluciona, también lo hacen las formas de detectar y abordar su uso. La educación y la investigación continua son fundamentales para garantizar la integridad en la investigación científica.

A medida que las empresas de escritura científica adoptan la I.A. para generar contenido, es crucial establecer estándares y herramientas de detección. El desafío radica en mantener la originalidad y la integridad en una era de avances tecnológicos.

La I.A. generativa ofrece posibilidades emocionantes y riesgos desafiantes en la investigación científica. La comunidad académica y las revistas revisadas por pares deben trabajar juntas para forjar un camino que permita aprovechar las ventajas de la tecnología mientras se mantienen los valores éticos y la integridad intelectual.


Fuente: Wired.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *