viernes, febrero 23, 2024
36 C
San Carlos

Davos debate sobre los retos de la Inteligencia Artificial

Prevalece un sentimiento de optimismo sobre las posibilidades que la inteligencia artificial (IA) promete abrir en campos como la sanidad y la educación. Sin embargo, el entusiasmo suele ir precedido por la frase: «la IA, si se hace con responsabilidad». Y después, siempre se agrega: «pero debemos tener cuidado».

El Foro Económico Mundial (FEM), en su encuesta anual sobre riesgos, sitúa la desinformación impulsada por la IA como el mayor peligro en los próximos dos años. Según la encuesta, el «nexo entre la información falsificada y el malestar social ocupará un lugar central» este año, cuando más de 2.000 millones de personas acudan a las urnas en países como Estados Unidos e India.

El Fondo Monetario Internacional ha advertido de que la revolución tecnológica influirá en casi el 40 por ciento de los puestos de trabajo en todo el mundo, incluidos los de alta cualificación. En las economías desarrolladas, podría incluso llegar al 60 por ciento de los empleos.

Si bien las economías emergentes y en desarrollo podrían enfrentarse a menos trastornos inmediatos derivados de la IA, el FMI advierte de que muchos de estos países podrían tener dificultades para aprovechar los beneficios de la IA debido a la falta de infraestructuras y de mano de obra cualificada, lo que aumenta el riesgo de que, con el tiempo, la IA empeore la desigualdad entre los países.

«En la mayoría de los escenarios, la IA probablemente empeorará la desigualdad general, una tendencia preocupante que los responsables políticos deben abordar de forma proactiva para evitar que la tecnología avive aún más las tensiones sociales», declaró Kristalina Georgieva, directora del FMI, al inicio de la reunión anual del FEM.

Riesgos a medida que avanza la IA

Entre las mayores preocupaciones, están la calidad de los datos que alimentan los diversos modelos de IA y cómo la tecnología ha llevado al aumento de contenidos de alta calidad y a la posiblidad de manipular, como falsificaciones profundas, a un coste relativamente bajo.

Los críticos afirman que las empresas de IA generativa no han sido transparentes en cuanto al origen de los datos que alimentan sus grandes modelos lingüísticos, como ChatGPT, lo que suscita dudas sobre la fiabilidad de los datos subyacentes.

«¿Tomaron los datos de Fortran (un lenguaje de programación informática) o los tomaron de cierta parte de Reddit? Sólo podemos hacer suposiciones», dice a DW James Landay, profesor de informática de la Universidad de Stanford. «Lo que sí sabemos es que proceden principalmente de una perspectiva occidental. Los valores culturales incrustados en estos datos no son apropiados para otras culturas. Es casi una forma de imperialismo», afirma.

Landay, especializado en interacción persona-ordenador, señala las amenazas de la triple D que plantean los modelos de IA: desinformación, deep-fakes (falsificaciones profundas) y discriminación.

A pesar de sus deficiencias actuales, la IA se anuncia como un gran cambio para la industria. Los líderes del sector hablan maravillas de cómo esta tecnología ha supuesto un gran salto en la productividad.

Nigel Vaz, Consejero Delegado de Publicis Sapient, la rama digital de la agencia publicitaria francesa Publicis, afirma que la IA ha aumentado la productividad del desarrollo de software entre un 30 y un 40 por ciento. «Les permite centrarse más, no tanto en la generación de código, sino en la ideación», explica Vaz durante una mesa redonda.

Los expertos también subrayan los beneficios potenciales que promete la IA, especialmente en campos como la educación, donde los niños con acceso limitado a las escuelas podrían algún día tener acceso a tutores personales, y la sanidad, donde la tecnología ya está ayudando a mejorar la calidad de la atención al paciente.

La Presidenta de la Comisión Europea, Ursula von der Leyen, optimista confesa de la tecnología, está de acuerdo. «La inteligencia artificial puede aumentar la productividad a una velocidad sin precedentes», declaró en Davos. «Europa debe mejorar su juego y mostrar el camino hacia un uso responsable de la IA. Una inteligencia artificial que potencie las capacidades humanas, mejore la productividad y sirva a la sociedad».

Según Alexandra Mousavizadeh, Directora General de Evident, una plataforma especializada en la evaluación comparativa y el seguimiento de la adopción de la IA en el sector bancario, el auge de la IA generativa del año pasado podría enfriarse un poco este año a medida que las empresas se enfrenten a casos reales de uso viable de la tecnología y a la incertidumbre en torno a la regulación de su uso.

En cuanto a la desinformación, algunas empresas buscan informar mejor a los usuarios. Google, por ejemplo, ha creado SynthID, una herramienta para poner marcas de agua e identificar imágenes generadas por IA. Pero actualmente no existe una norma en el sector.

«El requisito debería ser que cualquier modelo de IA, cuando desarrolle contenido, tenga una procedencia asociada y, junto con el contenido, publique una herramienta a través de la cual se pueda procesar la marca de agua o la procedencia del contenido para que el ciudadano que interactúa con el contenido pueda saber si está interactuando con un contenido de IA o no», dijo Krishnan a DW.

(jov/ms) 

Ultimas Noticias