Preocupación y expectativas: qué piensan más de 4.000 científicos sobre el avance de la inteligencia artificial
16/04/2025
Un nuevo estudio reveló cómo perciben los investigadores que trabajan en inteligencia artificial los beneficios y riesgos de esta tecnología. Las diferencias con la ciudadanía son notorias.

Un contraste marcado entre expertos y ciudadanos
Una encuesta realizada por University College London (UCL) a 4.260 científicos de todo el mundo arrojó resultados contundentes sobre el avance de la inteligencia artificial (IA) y su posible impacto en la vida cotidiana.
Aunque los investigadores muestran un fuerte optimismo sobre sus beneficios, también se expresan preocupaciones importantes respecto a sus riesgos.
Uno de los puntos más llamativos del informe “Visions, Values, Voices” es el desacuerdo entre científicos y ciudadanos del Reino Unido: mientras que el 87 % de los expertos cree que los beneficios de la IA superan o igualan sus riesgos, solo el 57 % del público general comparte esa percepción. En cambio, el 28 % de los británicos considera que los riesgos superan a los beneficios, una opinión sostenida apenas por el 9 % de los investigadores.
Riesgos concretos que preocupan a todos
Más allá de las diferencias en el nivel de optimismo, tanto científicos como ciudadanos coinciden en señalar amenazas claras: el uso indebido de datos personales, la desinformación y el cibercrimen encabezan la lista.
Por ejemplo, el 77 % de los científicos consultados considera que la IA intensifica el problema de las noticias falsas, una opinión que comparte el 68 % del público británico.
En cuanto a la privacidad, el 65 % de los investigadores expresó inquietud por el uso no autorizado de datos personales, una preocupación que también comparte el 71 % del público británico..
El debate ético sobre los datos
Una de las cuestiones más polémicas tiene que ver con el entrenamiento de modelos de IA con material disponible en Internet, como libros, artículos científicos y publicaciones de redes sociales.
Aunque muchas empresas tecnológicas recurren a estos contenidos sin autorización, el estudio revela que solo el 25 % de los científicos cree que esto es aceptable sin consentimiento explícito. Casi la mitad considera que debería requerirse permiso del autor o dueño del contenido.
Esta práctica masiva de recolección de datos representa, para muchos investigadores, un problema ético urgente.
Así lo expresó Cian O’Donovan, principal autor del informe, quien advirtió que las opiniones de los expertos entran en conflicto con algunas iniciativas regulatorias como las del gobierno británico, que proponen un modelo de “opt-out”, permitiendo el uso de obras protegidas salvo que los autores se opongan.
¿Quién debe controlar el desarrollo de la IA?
Otra cuestión que abordó la encuesta es quiénes deben ser responsables de regular el uso seguro de la IA. Para los investigadores, la respuesta está principalmente en las empresas desarrolladoras, los gobiernos y los organismos internacionales.
En cambio, los ciudadanos británicos prefieren la creación de organismos independientes con participación social.
En relación con la velocidad del avance, solo el 29 % de los científicos cree que la IA debería desarrollarse a toda marcha.
La mayoría apuesta por un enfoque más prudente, que priorice el análisis de riesgos antes que la aceleración.
Finalmente, cuando se les preguntó sobre la posibilidad de alcanzar una inteligencia artificial general (AGI), apenas uno de cada cinco investigadores cree que ese avance sea inevitable, marcando una distancia evidente con el entusiasmo de ciertos sectores tecnológicos.
También puede interesarte: