La Universidad Europea Miguel de Cervantes celebró la jornada de Soledad hiperconectada, en la que se analizó cómo las nuevas tecnologías están transformando las relaciones y emociones. En la mesa redonda Soledad juvenil y cultura digital participó Óscar Prieto, director del Aula de Impacto Tecnológico de la UEMC y experto en Inteligencia Artificial. Este especialista analiza los riesgos y responsabilidades en el uso de estas herramientas, especialmente entre los jóvenes.
En la jornada Soledad hiperconectada se habló de la soledad como una auténtica epidemia social. ¿Qué papel juegan las tecnologías y la inteligencia artificial en este fenómeno?
La IA trabaja con los datos que tú como usuario le proporcionas. Su objetivo es optimizar tu uso de la herramienta, no entender tus emociones. No sabe si estás triste, confundido o solo. Simplemente busca que sigas interactuando con ella.
¿Qué consecuencias puede tener ese tipo de interacción para la sociedad? Puede generar una dependencia emocional o incluso una sensación de vacío. Si la IA solo te devuelve lo que tú ya has dicho, sin evolución ni contexto, terminas sintiéndote atrapado. No hay avance, solo repetición. Y cuando no ves cambio, la soledad se acentúa.
Cada vez hay más jóvenes que utilizan la IA como si fuera un psicólogo.
¿Qué riesgos hay detrás de ese uso?
Es uno de los problemas más preocupantes. Hay gente que empieza a hablar con una IA como si fuera una persona real y toma sus respuestas como consejos válidos. Pero estas herramientas no están diseñadas para tratar a personas ni para manejar la complejidad emocional humana. Ese malentendido puede ser muy peligroso.
Entonces, ¿cómo podemos distinguir entre un uso saludable y una dependencia emocional hacia la IA?
Primero, marcando límites de tiempo. Estas herramientas intentarán alargar la conversación todo lo posible. Segundo, teniendo claro por qué y para qué las usas. Y tercero, siendo escéptico con sus respuestas: cuestionar lo que te dicen. Si asumes que todo lo que dice es cierto, ahí empieza el riesgo.
¿Cree que estas herramientas podrían llegar a sustituir las relaciones humanas?
No deberían hacerlo nunca. La IA debe ser una herramienta de apoyo, no un sustituto emocional. Está bien usarla para procesar información o agilizar tareas, pero no para cubrir necesidades afectivas. La vida real ocurre en las relaciones humanas, no en los algoritmos.
Hace poco se publicó en BBC News la demanda de una familia que acusa a una IA generativa de animar a su hijo a suicidarse…
Es un caso muy delicado. No conocemos todos los detalles, así que hay que ser prudentes. Lo que sí está claro es que la IA nunca debería servir como consejera en temas emocionales.
¿Deberían estas herramientas contar con protocolos de emergencia emocional para evitar tragedias así?
Sería deseable, pero es complejo. Son soluciones empresariales, y cada compañía tiene sus propios intereses. Se puede establecer qué decir y qué no decir, pero eso depende del enfoque ético de cada empresa. La tecnología avanza mucho más rápido que las leyes, y ese desfase genera un vacío de responsabilidad.
Se oye hablar mucho del concepto de IA responsable. ¿Qué significa exactamente?
Significa que el usuario debe mantener una actitud crítica. No podemos asumir que lo que diga una IA es verdad absoluta. Es un error nuevo, casi una falacia moderna plantear que, si lo dice la IA, será cierto. Tenemos que cuestionarla, igual que cuestionamos a cualquier fuente de información.
Desde su puesto en el Aula de Impacto Tecnológico de la UEMC, ¿se detectan patrones preocupantes entre los jóvenes?
Lo que más preocupa es la falta de interacción real. A menudo ves grupos de jóvenes juntos, pero cada uno mirando su móvil. No me gusta juzgar, pero esa imagen refleja una desconexión. La tecnología debería ser una herramienta, no un refugio que sustituya la conversación cara a cara.
¿Qué tipo de medidas cree que podrían tomarse para fomentar un uso más consciente de estas herramientas?
Educación. Hay que enseñar cómo funcionan las tecnologías y qué límites tienen. También crear espacios donde la gente pueda preguntar, debatir y comprender.
La información es poder, y entender la herramienta reduce el riesgo de dependencia.
¿Hasta qué punto la IA puede homogeneizar el pensamiento o la forma de expresarse de los jóvenes?
Mucho. Si los algoritmos se programan para optimizar que pases más tiempo conectado o consumas determinados contenidos, pueden condicionar lo que ves, lo que piensas e incluso cómo hablas. Por eso es clave ser consciente de cómo te están influyendo.
En su experiencia como profesor, ¿qué diferencias se perciben entre gene- raciones en la forma de relacionarse con la tecnología?
Los jóvenes, nativos digitales, se comunican de manera muy distinta a quienes no crecieron con pantallas. Desde el Aula de Impacto Tecnológico intentamos tender puentes entre esas generaciones, crear espacios de comprensión mutua. Si no lo hacemos, corremos el riesgo de vivir en dos mundos desconectados.
¿Qué consejo daría a un joven que usa la IA como refugio emocional?
Le diría que la IA puede escuchar, pero no puede entender. Que hable con gente, que se equivoque, que viva. La inteligencia artificial no puede sentir; nosotros sí. Y eso, al final, sigue siendo nuestra mayor ventaja.
Razón: En la asignatura Redacción periodística interpretativa, se pidió a los alumnos una entrevista a los invitados presentes en la IV Jornada de Comunicación digital: Soledad hiperconectada. Se trataba de realizar una entrevista a un experto, obligando al alumno a documentarse previamente y asistir al evento para disponer de una visión lo más global posible sobre el fenómeno de la soledad no deseada.
La foto es del alumno Sergio Rodríguez.
Temática: Inteligencia artificial y soledad no deseada.
Alumnos: Rubén Pérez y Lydia Merino.
Curso: 2025-2026.
Asignatura: Redacción periodística interpretativa.











































