Expertos en Concepción: La IA no es Terapia Psicológica y Jamás Debe Reemplazar el Vínculo Humano

Big data technology and data science. Data scientist querying, analysing and visualizing complex data set on virtual screen. Data flow concept. Business analytics, finance, neural network, AI, ML.

El debate global sobre el uso de la Inteligencia Artificial (IA) en salud mental se ha intensificado, especialmente tras la reciente demanda en Estados Unidos relacionada con la muerte de un adolescente que habría dependido de ChatGPT como apoyo emocional. En respuesta a estos riesgos, especialistas de Concepción (UdeC) sostienen que la IA puede ser un complemento en contextos controlados, pero nunca debe sustituir la atención psicológica ni las relaciones humanas.

Riesgos y Falsas Expectativas: El Límite de la Tecnología

Académicos del Departamento de Psicología de la UdeC alzaron la voz para advertir sobre los peligros de confiar en chatbots para llenar vacíos de acompañamiento emocional.

El Dr. Félix Cova Solar, Director del Departamento de Psicología, reconoció que la IA puede ser útil para obtener información o reflexionar sobre problemas personales, pero subrayó su alcance limitado.

“Es una ayuda con un alcance limitado, y bajo ninguna circunstancia puede reemplazar lo que un vínculo humano puede proporcionar. La IA no puede reemplazar la atención psicológica, los vínculos humanos, la conversación con amistades, con familiares”, afirmó.

En la misma línea, la Dra. Carolina Inostroza Rovegno explicó que los chatbots actuales suelen reforzar las creencias del usuario sin ofrecer contrapuntos o generar un diálogo real. Este mecanismo puede ser altamente peligroso:

Esto puede causar “espirales que pueden agudizar las creencias o síntomas que la persona presenta, donde los casos más graves que se han comenzado a reportar incluyen procesos que llevan a delirios o síntomas psicóticos, o el ocultamiento de ideas suicidas”.

La especialista contrastó esta situación con la interacción humana, donde la respuesta natural de un interlocutor generalmente impulsa a la persona a buscar ayuda profesional.


Limitaciones Técnicas: Sesgos y Dependencia Emocional

Las limitaciones de la IA no son solo psicológicas, sino también tecnológicas. La Dra. Alejandra Maldonado Trapp, Directora del Programa [genIA] UdeC, enfatizó que los modelos de lenguaje (como ChatGPT o Gemini) no piensan ni razonan como los humanos.

  • Funcionamiento Probabilístico: Su operación se basa en estimaciones de palabras, no en el entendimiento, lo que limita su capacidad de comprensión emocional profunda.
  • Riesgo de Sesgos: La información con la que estos modelos son entrenados puede contener sesgos humanos, como los de género, afectando la calidad e imparcialidad de sus respuestas.
  • Dependencia y Aislamiento: La Dra. Maldonado alertó sobre el riesgo de dependencia emocional al antropomorfizar el modelo, lo que puede dar una falsa sensación de compañía y, paradójicamente, aumentar el aislamiento social.
  • Brechas de Seguridad: También hay un riesgo de privacidad, pues “ninguna IA en la nube está libre de brechas de seguridad, por lo que la información sensible podría ser expuesta”.

Uso Responsable y Distinción de Contextos

Los académicos de la UdeC coincidieron en que la clave está en el uso responsable y en entender que la IA tiene distintos alcances.

El Dr. Claudio Bustos Navarrete destacó que el problema se concentra en el uso desregulado de los chatbots como sustitutos terapéuticos, mas no en la tecnología per se.

“Se está trabajando en sistemas de apoyo con IA, pero siempre bajo supervisión humana, [y] nunca reemplazan el contacto ni la empatía de un ser humano”, señaló.

El académico también recordó que el campo de la IA es vasto y útil en otros ámbitos, como el apoyo al diagnóstico de imágenes en la medicina, diferenciándolo del acompañamiento psicológico.

La Dra. Maldonado recomendó a los usuarios aplicar pensamiento crítico y contrastar siempre las respuestas de la IA con fuentes confiables. Para usuarios vulnerables, es vital que quienes los rodean observen el uso peligroso de estas tecnologías e intervengan.


Cómo Iniciar la Búsqueda de Ayuda Psicológica

Los especialistas de Psicología de la UdeC ofrecieron una guía clara para quienes necesitan apoyo:

  1. Recurrir a Vínculos Cercanos: Si la persona se siente desbordada, el primer paso es acudir a familiares o amistades de confianza.
  2. Buscar Ayuda Profesional: Si el apoyo de la red cercana es insuficiente, es esencial considerar la terapia psicológica.
  3. Prioridad en Crisis: Si la persona presenta conductas autodestructivas o fuertes impulsos de realizarlas, la ayuda profesional es imperativa. En este contexto, usar la IA es contraproducente y riesgoso.
  4. Investigar al Terapeuta: La Dra. Inostroza aconsejó buscar referencias y confirmar la formación especializada del psicólogo (postítulos o magíster) en el área clínica, la edad de los pacientes que atiende y los problemas específicos en los que tiene expertise.

SOJ