miércoles, 14 de enero de 2026

El 54,9% de los ciudadanos de la Región de Murcia no utiliza la IA, según un estudio del OBEDE

 MURCIA.- El 54,9% de la población de la Región de Murcia no utiliza la Inteligencia Artificial (IA), frente a un 36,8% que sí reconoce algún tipo de uso --11,6% personal, 7,3% profesional y 17,9% combinado--, según se desprende del Estudio Sociológico sobre el Uso de la Inteligencia Artificial en la Región de Murcia.

El estudio, elaborado por el Observatorio Español de Estudios Demoscópicos (OBEDE) de la Universidad Católica San Antonio de Murcia (UCAM), incluye 800 entrevistas realizadas del 18 al 28 de noviembre de 2025 a personas censadas en la comunidad autónoma.

En cuanto a los riesgos percibidos, el documento apunta que la ciudadanía de la Región desplaza el foco desde el debate tecnológico o estrictamente laboral hacia una preocupación claramente ética.

Así, las mayores alertas no se concentran en la pérdida de empleo o en la complejidad técnica, sino en cuestiones vinculadas a la protección de los menores, la privacidad y el control sobre la información personal, constituyendo el núcleo central de las inquietudes sociales detectadas.

La variable edad introduce una brecha muy marcada, ya que entre los jóvenes de 18 a 30 años, el 61,3% afirma utilizar la IA de alguna forma, mientras que en el grupo de 65 años o más esta cifra desciende al 17,8%.

El uso profesional presenta un contraste aún más acusado, alcanzando el 18,7% entre los más jóvenes, y se reduce al 2,2% en los mayores. Estos datos confirman que el uso consciente de la IA es, en la actualidad, un fenómeno generacional.

El ingeniero en Informática y experto en redes y dispositivos móviles de la UCAM, Francisco Arcas, ha destacado que los resultados "evidencian una brecha de adopción significativa", ya que solo el 36,8% de la población utiliza la IA de forma consciente, y ha advertido de que este dato no refleja la ausencia real de tecnología, sino una baja percepción de uso.

"Aunque la IA es una tecnología ubicua, la llevas en el móvil y está integrada en aplicaciones de uso común, la mayoría de la población afirma no interactuar conscientemente con ella", ha dicho Arcas, quien ha recordado que a finales de 2025 España superó los 62 millones de líneas móviles y el 95% de los usuarios utiliza un smartphone, lo que sugiere que el número de usuarios reales de IA "es probablemente mucho mayor".

Federico Juárez, director de la Cátedra de Inteligencia Artificial de la UCAM, ha complementado esta lectura señalando que "en términos de adopción, estamos observando un fenómeno de 'digitalización invisible'", y ha destacado que "la naturaleza de este uso es reveladora: solo un 7,3% la utiliza exclusivamente para trabajar".

En el ámbito laboral, ha advertido, además, de que "los empleados están usando en la sombra sus propias herramientas ('Shadow AI') más rápido de lo que las empresas pueden regularlas", lo que introduce riesgos adicionales de gobernanza y control.

Las preocupaciones ciudadanas se concentran en los riesgos de carácter ético y social. La posibilidad de que la IA sea peligrosa para los menores obtiene la puntuación media más alta (4,2), seguida muy de cerca por la intromisión en la intimidad y la información personal (4,0).

En un segundo nivel aparece el temor a que la IA controle la voluntad de las personas sin que lo sepan (3,3) y, tras ello, la preocupación por la pérdida de puestos de trabajo (3,1).

La edad intensifica estas percepciones. El riesgo para los menores pasa de 3,7 entre los jóvenes de 18 a 30 años a 4,5 entre los mayores de 65, y la preocupación por la privacidad aumenta de 3,6 a 4,2.

Aunque el impacto laboral es el ítem menos valorado en todos los grupos, también crece con la edad, alcanzando su máximo entre los 45 y 64 años (3,3).

Juárez ha sintetizado este patrón afirmando que "la preocupación por el empleo es sorprendentemente baja, eclipsada por un temor mucho más visceral: la seguridad de los menores y la privacidad", y ha añadido que "aquí, la inteligencia artificial no se percibe como una amenaza para la nómina, sino como un riesgo para la integridad moral de la familia".

Desde una lectura técnica, Arcas ha coincidido en el desplazamiento del foco y ha señalado que "el análisis muestra que la sociedad prioriza la integridad de los datos y la protección de colectivos vulnerables por encima del impacto económico laboral".

En la misma línea, ha subrayado que "es destacable que el miedo a la pérdida de empleo sea el factor menos valorado, desplazando la preocupación hacia lo ético".

La alarma social alcanza su punto máximo cuando la IA se asocia a usos directamente dañinos. El mayor nivel de preocupación se da en el uso de herramientas digitales para acosar, humillar o extorsionar a personas, incluida la creación de imágenes manipuladas de menores con fines sexuales, con una puntuación media de 4,4 sobre 5.

Le siguen la desinformación en salud y sanidad (4,1) y la manipulación vinculada a la actualidad política y a cuestiones geopolíticas o militares (ambas con 3,9). Por su parte, el menor nivel de inquietud se registra en las informaciones falsas sobre la vida privada de personajes públicos (3,2).

En este sentido, la edad vuelve a ser un factor amplificador del riesgo percibido. La preocupación por el acoso y la manipulación de menores aumenta de 4,1 entre los jóvenes a 4,7 entre los mayores de 65 años, mientras que la desinformación sanitaria pasa de 3,9 a 4,3.

Arcas ha interpretado estos datos como una señal del clima social actual y ha afirmado que "este apartado revela una alarma social crítica y una desconfianza sistémica hacia la veracidad del contenido digital, especialmente ante el uso malintencionado de modelos generativos".

El experto ha subrayado que "la preocupación máxima de todo el informe se centra en el uso de herramientas de IA para acosar, extorsionar o crear imágenes manipuladas de menores", y destaca que "existe un consenso casi total en esta preocupación".

Para Juárez, esta alarma a una lectura estratégica y concluye que "la ciudadanía ha hablado claro: priorizan la protección contra los deepfakes y el acoso digital por encima del crecimiento económico". De ahí que, a su juicio, "la eficiencia ha dejado de ser el argumento de venta principal" y que "la próxima batalla de la IA no será tecnológica, será puramente humanista".

No hay comentarios: