MURCIA.- El 54,9% de la población de la Región de Murcia no utiliza la
Inteligencia Artificial (IA), frente a un 36,8% que sí reconoce algún
tipo de uso --11,6% personal, 7,3% profesional y 17,9% combinado--,
según se desprende del Estudio Sociológico sobre el Uso de la
Inteligencia Artificial en la Región de Murcia.
El estudio,
elaborado por el Observatorio Español de Estudios Demoscópicos (OBEDE)
de la Universidad Católica San Antonio de Murcia (UCAM), incluye 800
entrevistas realizadas del 18 al 28 de noviembre de 2025 a personas
censadas en la comunidad autónoma.
En cuanto a los riesgos
percibidos, el documento apunta que la ciudadanía de la Región desplaza
el foco desde el debate tecnológico o estrictamente laboral hacia una
preocupación claramente ética.
Así, las mayores alertas no se
concentran en la pérdida de empleo o en la complejidad técnica, sino en
cuestiones vinculadas a la protección de los menores, la privacidad y el
control sobre la información personal, constituyendo el núcleo central
de las inquietudes sociales detectadas.
La variable edad
introduce una brecha muy marcada, ya que entre los jóvenes de 18 a 30
años, el 61,3% afirma utilizar la IA de alguna forma, mientras que en el
grupo de 65 años o más esta cifra desciende al 17,8%.
El uso
profesional presenta un contraste aún más acusado, alcanzando el 18,7%
entre los más jóvenes, y se reduce al 2,2% en los mayores. Estos datos
confirman que el uso consciente de la IA es, en la actualidad, un
fenómeno generacional.
El ingeniero en Informática y experto
en redes y dispositivos móviles de la UCAM, Francisco Arcas, ha
destacado que los resultados "evidencian una brecha de adopción
significativa", ya que solo el 36,8% de la población utiliza la IA de
forma consciente, y ha advertido de que este dato no refleja la ausencia
real de tecnología, sino una baja percepción de uso.
"Aunque
la IA es una tecnología ubicua, la llevas en el móvil y está integrada
en aplicaciones de uso común, la mayoría de la población afirma no
interactuar conscientemente con ella", ha dicho Arcas, quien ha
recordado que a finales de 2025 España superó los 62 millones de líneas
móviles y el 95% de los usuarios utiliza un smartphone, lo que sugiere
que el número de usuarios reales de IA "es probablemente mucho mayor".
Federico Juárez, director de la Cátedra de Inteligencia Artificial de
la UCAM, ha complementado esta lectura señalando que "en términos de
adopción, estamos observando un fenómeno de 'digitalización invisible'",
y ha destacado que "la naturaleza de este uso es reveladora: solo un
7,3% la utiliza exclusivamente para trabajar".
En el ámbito
laboral, ha advertido, además, de que "los empleados están usando en la
sombra sus propias herramientas ('Shadow AI') más rápido de lo que las
empresas pueden regularlas", lo que introduce riesgos adicionales de
gobernanza y control.
Las preocupaciones ciudadanas se concentran en los riesgos de
carácter ético y social. La posibilidad de que la IA sea peligrosa para
los menores obtiene la puntuación media más alta (4,2), seguida muy de
cerca por la intromisión en la intimidad y la información personal
(4,0).
En un segundo nivel aparece el temor a que la IA
controle la voluntad de las personas sin que lo sepan (3,3) y, tras
ello, la preocupación por la pérdida de puestos de trabajo (3,1).
La edad intensifica estas percepciones. El riesgo para los menores
pasa de 3,7 entre los jóvenes de 18 a 30 años a 4,5 entre los mayores de
65, y la preocupación por la privacidad aumenta de 3,6 a 4,2.
Aunque el impacto laboral es el ítem menos valorado en todos los
grupos, también crece con la edad, alcanzando su máximo entre los 45 y
64 años (3,3).
Juárez ha sintetizado este patrón afirmando que
"la preocupación por el empleo es sorprendentemente baja, eclipsada por
un temor mucho más visceral: la seguridad de los menores y la
privacidad", y ha añadido que "aquí, la inteligencia artificial no se
percibe como una amenaza para la nómina, sino como un riesgo para la
integridad moral de la familia".
Desde una lectura técnica,
Arcas ha coincidido en el desplazamiento del foco y ha señalado que "el
análisis muestra que la sociedad prioriza la integridad de los datos y
la protección de colectivos vulnerables por encima del impacto económico
laboral".
En la misma línea, ha subrayado que "es destacable
que el miedo a la pérdida de empleo sea el factor menos valorado,
desplazando la preocupación hacia lo ético".
La alarma social alcanza su punto máximo cuando la IA se asocia a
usos directamente dañinos. El mayor nivel de preocupación se da en el
uso de herramientas digitales para acosar, humillar o extorsionar a
personas, incluida la creación de imágenes manipuladas de menores con
fines sexuales, con una puntuación media de 4,4 sobre 5.
Le
siguen la desinformación en salud y sanidad (4,1) y la manipulación
vinculada a la actualidad política y a cuestiones geopolíticas o
militares (ambas con 3,9). Por su parte, el menor nivel de inquietud se
registra en las informaciones falsas sobre la vida privada de personajes
públicos (3,2).
En este sentido, la edad vuelve a ser un
factor amplificador del riesgo percibido. La preocupación por el acoso y
la manipulación de menores aumenta de 4,1 entre los jóvenes a 4,7 entre
los mayores de 65 años, mientras que la desinformación sanitaria pasa
de 3,9 a 4,3.
Arcas ha interpretado estos datos como una señal
del clima social actual y ha afirmado que "este apartado revela una
alarma social crítica y una desconfianza sistémica hacia la veracidad
del contenido digital, especialmente ante el uso malintencionado de
modelos generativos".
El experto ha subrayado que "la
preocupación máxima de todo el informe se centra en el uso de
herramientas de IA para acosar, extorsionar o crear imágenes manipuladas
de menores", y destaca que "existe un consenso casi total en esta
preocupación".
Para Juárez, esta alarma a una lectura
estratégica y concluye que "la ciudadanía ha hablado claro: priorizan la
protección contra los deepfakes y el acoso digital por encima del
crecimiento económico". De ahí que, a su juicio, "la eficiencia ha
dejado de ser el argumento de venta principal" y que "la próxima batalla
de la IA no será tecnológica, será puramente humanista".