Editorial Inteligencia artificial (IA), modernidad y salud mental La modernidad es ese proyecto marcado por la fe en el progreso, la razón y la técnica como herramientas para emancipar al ser humano de las ataduras de la naturaleza, del error y de la ignorancia. Esta confianza en la capacidad de transformación del mundo —y del propio ser humano— ha configurado una relación particular con la tecnología como una promesa civilizatoria. Sin embargo, esa misma promesa ha abierto la puerta a nuevas formas de dominación, muchas veces encubiertas bajo el lenguaje de la eficiencia, la neutralidad o la innovación. En el mundo contemporáneo, fase avanzada del ideal moderno, nos encontramos frente a tecnologías que no solo amplían las capacidades humanas, sino que tienden a sustituirlas. La inteligencia artificial, los algoritmos de decisión automatizada y las plataformas digitales median nuestras acciones y han comenzado a determinarlas. Lo que antes era prerrogativa del juicio humano —diagnosticar una enfermedad, evaluar una obra, enseñar, escribir, cuidar— empieza a ser delegado a sistemas que simulan o reemplazan funciones cognitivas, afectivas y sociales. Este desplazamiento reconfigura profundamente la experiencia de lo humano y nos plantea preguntas urgentes sobre la autonomía, la responsabilidad, la relación con el cuerpo y lo común. Por esto, es necesario revisar críticamente las promesas y límites de la técnica, así como los supuestos filosóficos que han sostenido la modernidad. ¿Qué se pierde cuando lo humano es traducido a datos? ¿Qué clase de mundo se configura cuando el criterio humano se vuelve prescindible? Un ejemplo revelador es el ámbito de la salud mental, donde la irrupción de la inteligencia artificial ha introducido nuevas formas de acompañamiento y diagnóstico. Chatbots entrenados con grandes bases de datos ofrecen respuestas inmediatas, adaptadas y aparentemente empáticas a quienes buscan orientación emocional, promoviendo una idea de autodiagnóstico más accesible que la psiquiatría clásica. Esta “psiquiatría 2.0” parece superar los límites de una práctica clínica a menudo deshumanizada, burocrática y jerárquica, al abrir canales de escucha que parecen ser más horizontales y que se muestran disponibles todo el tiempo. Sin embargo, esta virtualización también plantea riesgos: ¿puede una máquina comprender el sufrimiento? ¿Qué ocurre cuando el lenguaje del síntoma es reducido a patrones estadísticos? Reflexionar sobre estos desplazamientos tecnológicos no implica rechazar sus aportes, sino preguntarnos qué tipo de humanidad estamos cultivando cuando delegamos a las máquinas la tarea de entendernos, acompañarnos y diagnosticarnos. En este sentido, este texto propone una reflexión sobre cómo dicho paradigma se articula con el campo de la salud mental, entendido aquí como uno de los espacios donde se ha materializado el ideal modernizador. Veremos cómo este ideal adquiere hoy una nueva forma a través de la inteligencia artificial, que aparece como su expresión contemporánea que redefine el vínculo terapéutico, la noción de sujeto y los modos de intervención frente al sufrimiento psíquico. Quisiera presentar tres casos 1 que sintetizan distintas noticias que he podido recopilar en la red y que ilustran cómo la inteligencia artificial está siendo incorporada en el campo de la salud mental, reconfigurando sus prácticas, discursos y alcances. ________________ 1.- Caso 1 (Periódico en línea): El Comercio. (2023, 12 de junio). Simulan pacientes con IA en la USFQ para formar psicólogos del futuro. El Comercio. https://www.elcomercio.com/tendencias/salud/simulan-pacientes-con-ia-en-la- usfq-para-formar-a-los-psicologos-del-futuro/. Caso 2 (Revista en línea): National Geographic. (2024, 2 de julio). ¿Es la inteligencia artificial útil para temas de salud mental? National Geographic. https://www.nationalgeographic. es/ciencia/2024/07/inteligencia-artificial-problemas-salud-mental-peligros-oportunidades-uso-chatbots.Caso 3 (Página web / Blog corporativo): Arkangel AI. (s.f.). Inteligencia Artificial en la Salud Mental: Aplicaciones y Perspectivas Futuras. https://www.arkangel.ai/es/blog-ai/the-role-of-ai-in-mental-health-applications-and-key- techniques ________________ El primer caso se presenta el uso de inteligencia artificial para simular padecimientos de pacientes con fines pedagógicos, destinados a la formación de futuros psicólogos. Aunque esta iniciativa busca ofrecer una herramienta didáctica, plantea una contradicción de fondo: el proceso terapéutico no se limita a identificar síntomas ni a responder protocolos, sino que implica una relación simbólica con un otro real en el acto de la producción de la palabra. Es justamente en el encuentro con ese otro donde el sujeto puede metaforizar su experiencia, elaborar su malestar y reconfigurar su relato. Al reemplazar esa presencia por una simulación algorítmica, se corre el riesgo de vaciar el proceso de su dimensión más humanizante. ¿Puede un chatbot realmente simbolizar el dolor psíquico de un sujeto? ¿qué perspectiva reduccionista van a desarrollar los futuros profesionales? El segundo caso es una noticia publicada por National Geographic, representativa de muchas otras que circulan en medios de gran alcance2 . En ella se informa sobre una revisión sistemática que concluye que los chatbots de salud mental basados en IA podrían reducir significativamente los síntomas de depresión y angustia. Aunque se trata de un dato relevante, es importante subrayar que este tipo de estudios tienden a simplificar la idea de salud mental, reduciéndola a la gestión de síntomas mediante interacción automatizada. En muchos reportes similares3 _______________ 2 Véase Consejo General de la Psicología de España. (2025, 14 de abril). Beneficios y riesgos de la IA en la atención a la salud mental, según MHE. Infocop. https://www.infocop.es/beneficios-y-riesgos-de-la-ia-en-la-atencion-a-la- salud-mental-segun-mhe/ 3 Otro ejemplo es este blog que presenta a la IA como “competencia” de la terapéutica: iComportamiento. (s. f.). El impacto de la inteligencia artificial en la salud mental. Recuperado el 21 de junio de 2025, de https://icomportamiento. com/blog/el-impacto-de-la-inteligencia-artificial-en-la-salud-mental, se destacan los beneficios prácticos y el alcance inmediato de estas tecnologías, pero se omiten los aspectos relacionales, éticos y existenciales del cuidado psicológico. La eficacia estadística no siempre equivale a un acompañamiento significativo. _______________ Finalmente, el tercer caso es aún más directo: se trata de una página web construida completamente con inteligencia artificial que ofrece una guía paso a paso para el manejo de problemas emocionales. La interfaz, limpia y eficiente, orienta al usuario a través de preguntas y consejos preprogramados, organizando la experiencia de sufrimiento como si se tratara de un flujo de trabajo. Este ejemplo muestra cómo la IA rediseña desde sus fundamentos, proponiendo una lógica de resolución rápida y autosuficiente. Lo que alguna vez fue concebido como un proceso humano, dialógico y abierto, se traduce ahora en formatos digitales que priorizan la autonomía técnica sobre el encuentro intersubjetivo. Resulta necesario entender a la modernidad como un proyecto histórico que prometió la emancipación humana a través de la razón y la ciencia, que se ha convertido en un dispositivo que totaliza todos los ámbitos de la existencia. Ha invadido no solo la esfera material, sino también lo simbólico, lo social y lo psíquico, transformando el sufrimiento humano en una mercancía. La psiquiatría, aplicación técnica de la ciencia, ha construido las palabras necesarias para los “cambios normativos profundos en nuestros modos de vida” (Ehrenberg, 1998, p.11), y construyó un modelo que reduce el malestar a diagnósticos y tratamientos que ratifican las lógicas de explotación y alienación propias del capitalismo. Esta manera de pensarnos y de pensar el mundo ha configurado nuestras instituciones y comportamientos, pero también genera profundos malestares psíquicos derivados de la fragmentación de la vida cotidiana. El discurso terapéutico y su aplicación en la IA emergen como dispositivos que gestionan el sufrimiento no para aliviarlo, sino para integrarlo en la maquinaria productiva. Los diagnósticos se convierten en etiquetas de consumo, y los tratamientos, en formas de normalización funcional refuerzan un código cultural de productivismo, de segregación social y del individualismo liberal. Sin embargo: [c]uando a la libertad se le sustrae el tiempo para poder gozar del propio cuerpo y del cuerpo de otros, cuando la posibilidad de disfrutar del medio natural y urbano es destruida, cuando los demás seres humanos son competidores enemigos o aliados poco fiables, la libertad se reduce a un gris desierto de infelicidad. No es ya la neurosis, sino el pánico, la patología dominante de la sociedad postburguesa, en la que el deseo es invertido de forma cada vez más obsesiva en la empresa económica y en la competencia. Y el pánico se convierte en depresión apenas el objeto del deseo se revela como lo que es, un fantasma carente de sentido y sensualidad. El sufrimiento, la miseria existencial, la soledad, el océano de tristeza de la metrópolis postindustrial, la enfermedad mental. (Berardi, 2000, p. 32) En el contexto de los DSMs psiquiatricos, los manuales diagnósticos que gobiernan las bases de datos de la IA, la enfermedad mental es codificada en términos probabilísticos y estadísticos, reduciendo la singularidad del sufrimiento a una categoría replicable y, por lo tanto, comercializable. Este sistema de clasificación, basado en una visión neopositivista y reduccionista, promueve una idea de la salud mental que niega al sujeto como ser histórico y lo convierte en un objeto gestionable. A medida que la descripción clínica se vuelve más precisa y detallada, también se vuelve más opaca con relación al sujeto. El cuerpo del paciente ya no es cuerpo vivido ni historia encarnada, sino un texto clínico despojado de subjetividad. Así, como señala Foucault (2007), todas sus huellas se han vuelto interpretables como signos clínicos, y el síntoma se transforma en un dato puramente exterior, alienado de cualquier significado existencial o histórico. Sin embargo, este enfoque biológico no opera en el vacío. Factores externos al campo médico —políticos, sociales y económicos— influyen de manera decisiva en la definición de qué es la enfermedad y, por extensión, qué es un ser humano. La caída del Estado benefactor, la mercantilización de los servicios de salud, la precarización del empleo profesional y el poder creciente de la industria farmacéutica moldean los currículos médicos, pero también las prácticas cotidianas de los profesionales y las expectativas de los pacientes. Para Berardi, “la economía digital construye un sistema tecnocomunicativo orientado hacia una nueva condición cognitiva global” (Berardi, 2000, p. 36). Como advierte el autor, no podemos comprender la sociedad actual sin considerar que las personas están siendo sometidas a una fase de mutación emocional y cognitiva. En lugar de comprender la enfermedad mental como una experiencia singular que interpela al presente desde el pasado, la terapéutica de tecnologías inteligentes opera como un dispositivo de normalización, y refuerza las estructuras sociales que producen el malestar que pretende curar. El síntoma es reducido a un hecho observable, despojado de su dimensión simbólica y subjetiva, y el tratamiento se convierte en una técnica de gestión de la desviación, sin comprender que la patología es una realidad ontológica del sujeto y no de la naturaleza (Roudinesco, 2005). En el mundo contemporáneo, vivimos una contradicción inquietante que Alain Petit describe con precisión: “La miseria de la abundancia coexiste con la abundancia de la miseria” (2009, p. 99). Este contraste no solo evidencia las desigualdades económicas, sino también un modelo de vida marcado por la miseria psíquica. La sociedad de la abundancia no solo produce bienes materiales en exceso, sino también vacíos existenciales y patologías del “vacío”: depresión, ansiedad, burnout y otras formas de precariedad emocional que se entrelazan con la precariedad laboral y la fragilidad del yo. En esta dinámica, lo que antes podía considerarse locura o marginalidad se reinventa como tendencia o novedad, encarnando lo que Petit llama “la miseria de la abundancia”. Vivimos en una era en la que la identidad se ha transformado en una marca propia, donde todo es posible y todo debe ser visible. Las redes sociales y la identificación virtual nos colocan en un escaparate perpetuo que promete autenticidad, pero exige performance constante. El “falso yo” se construye en la medida en que publicitamos nuestra vida y nuestros malestares como mercancías simbólicas. Paradójicamente, la exposición de nuestra vulnerabilidad no alivia el sufrimiento, sino que lo legitima como un signo de valor en un mercado de emociones. Por esto, el sufrimiento personal se convierte en un recurso para justificar nuestras acciones, desde el aislamiento hasta la violencia. La autopatologización4 –ese acto de diagnosticar nuestros malestares sin mediación profesional– y el uso indiscriminado de etiquetas clínicas, transforman el malestar subjetivo en una identidad fija, incluso deseable. Decir “soy ansioso” o “tengo burnout” ya no es solo una descripción de una experiencia, sino una forma de pertenecer y encontrar sentido en un mundo que exige narrativas sobre nosotros mismos. ___________________ 4 O la simulación de síntomas con un propósito. En inglés se conoce a este fenómeno como Malingering. ___________________ El sufrimiento, lejos de ser una experiencia íntima, se convierte en un signo de nuestra participación en la norma contemporánea. Ser “funcional” en el mercado de la vida implica no solo producir y consumir, sino también hacer visible nuestra vulnerabilidad como una mercancía que da acceso al reconocimiento social. Así, la patologización de la existencia se naturaliza, borrando la línea entre lo que necesitamos para vivir y lo que debemos hacer para ser reconocidos. En el mundo contemporáneo, el discurso terapéutico mediado por la IA se ha consolidado como un régimen de verdad, una herramienta con la que el sujeto interpreta y reinterpreta su existencia en términos de vulnerabilidad, reparación y optimización. Como señala Eva Illouz, este fenómeno cultural opera bajo tres dimensiones clave que articulan lo personal con lo estructural, moldeando nuestras vidas a partir de la ficción del “yo autónomo”. La primera dimensión comprende lo que Illouz describe como “un nuevo lenguaje del yo” (Illouz, 2010, p. 16): el discurso terapéutico como el nuevo idioma con el que se construye el yo moderno. Bajo esta mirada, la vida se explica como un campo de conflictos emocionales que deben ser gestionados, como si la autenticidad del individuo residiera en su capacidad de narrar y sanar sus propios sufrimientos. Este lenguaje no solo nombra las emociones, sino que produce nuevas categorías que redefinen la subjetividad: resiliencia, autoestima, trauma, entre otras. Cada palabra se presenta como una herramienta, pero también como una trampa, pues empuja al sujeto a un proceso inagotable de autoanálisis y automejora. El yo ya no se entiende como una construcción histórica y relacional, sino como un proyecto individual que debe actualizarse constantemente, en un bucle sin fin que transforma la vulnerabilidad en una exigencia de productividad emocional. La segunda dimensión se refiere al hecho de que “la perspectiva terapéutica ha sido institucionalizada en varias esferas sociales” (Illouz, 2010, p. 17). Lo terapéutico ya no es un espacio reservado para la consulta clínica; es una lógica que atraviesa la escuela, el trabajo, las relaciones y la política. Todo, desde la gestión empresarial hasta los discursos sobre bienestar público, opera bajo esta perspectiva que convierte las emociones en el eje articulador de nuestras interacciones sociales. Esta institucionalización no solo legitima lo terapéutico como una práctica cultural hegemónica, sino que lo convierte en el marco mediante el cual entendemos nuestras vidas y resolvemos nuestras crisis. Pero ¿a qué precio? Lo terapéutico, en su aspiración de abarcarlo todo, desplaza los problemas estructurales hacia lo individual, y culpabiliza a las personas de sus propios sufrimientos. La angustia frente a la precariedad laboral, la falta de tiempo o el vacío existencial se traduce en términos de responsabilidad individual: si algo no funciona, es porque no has trabajado lo suficiente en ti mismo. Y la tercera dimensión es la noción de cultura, conocimiento y la terapia como dispositivo de poder. Illouz afirma que “el discurso terapéutico —quizá más que cualquier otra formación cultural— ilustra los modos en que la cultura y el conocimiento se han imbricado inextricablemente en las sociedades contemporáneas” (2010, p. 18). Este entrelazamiento no es inocente; el saber terapéutico se legitima en el lenguaje científico, pero también responde a las lógicas culturales, tecnológicas y económicas del capitalismo tardío. Es por esto que, desde la mercantilización de Internet como tecnología doméstica —que ha permitido a los pacientes buscar información sanitaria en línea e incluso autodiagnosticarse—, la práctica médica ha sufrido profundas transformaciones. Aunque el auge de la IA parece avanzar en esta transformación hacia una búsqueda de información comprometida y reflexiva por parte de los pacientes, las herramientas de IA introducen una novedad que transforma radicalmente la autonomía del paciente en relación con los datos médicos y el autodiagnóstico, fomentando dinámicas de identificación autogeneradas en el diálogo con los chatbots. Si el dolor es un fenómeno subjetivo e intransferible, como han planteado Elaine Scarry y Susan Sontag, ¿puede un algoritmo validar o invalidar su existencia? Este dilema toca cuestiones profundas sobre la legitimidad del sufrimiento y abre un debate que articula dimensiones éticas, médicas y tecnopolíticas, estrechamente vinculado a los desarrollos recientes en neuroética y biopoder digital. La posibilidad de que una máquina determine qué tipo de dolor es real o no reproduce, en palabras de Kate Crawford, “antiguas formas de sospecha institucional, ahora automatizadas” (Crawford, 2021). Se trata de una desconfianza histórica, antes ejercida por las instituciones, y que ahora se delega a los sistemas automatizados como si fueran objetivos y neutros, ocultando el entramado ideológico y técnico que los sustenta. El uso de inteligencia artificial (IA) para el autodiagnóstico médico se ha expandido notablemente en la última década. Aplicaciones móviles, plataformas automatizadas y chatbots clínicos prometen acceso inmediato, privado y empoderador a información sobre salud, pero esta práctica plantea interrogantes de fondo: ¿qué tipo de subjetividad se configura cuando el sufrimiento debe ser reconocido por una interfaz digital?, ¿cómo se reconfigura la autoridad médica cuando los datos reemplazan al testimonio del cuerpo? Por otro lado, la antropología médica ha mostrado que el dolor no es solo un hecho biomédico, sino también una construcción cultural e histórica. Arthur Kleinman y Byron Good han insistido en que enfermedad y sufrimiento deben entenderse como prácticas de significación encarnadas, atravesadas por estructuras simbólicas, sociales y económicas. En esta línea, simular una dolencia —cuando es interpretada desde parámetros automatizados como un fraude o error— puede, en realidad, constituir una forma de agencia situada, una respuesta al malestar estructural, a la invisibilización o a la precariedad en el acceso al sistema de salud. Estas reflexiones encuentran eco en las críticas tempranas de Ivan Illich, quien en los años 70 advertía que la medicina moderna había despojado a las personas de la capacidad de interpretar y cuidar su propio cuerpo. Según Illich, “la medicina clínica se ha convertido en una práctica que impide al hombre asumir su experiencia corporal como fuente legítima de conocimiento” (Illich, 1976, p. 35). Hoy, en el contexto digital, esa desposesión no desaparece, sino que se traslada del médico al algoritmo, que interpreta el cuerpo a través de patrones estadísticos y modelos de predicción. Esta lógica genera una nueva forma de dependencia epistemológica en la que ya no se cree en lo que se siente, sino en lo que la máquina detecta o aprueba como válido. Desde este giro técnico, emerge el fenómeno del quantified self, analizado por Deborah Lupton, donde el cuerpo se transforma en una interfaz médica que es fuente constante de datos biométricos que requieren monitoreo y análisis (como el smartwatch). En este modelo, la experiencia se digitaliza, y como señala Lupton, “el cuerpo deja de ser sentido para convertirse en leído: la experiencia vivida se reemplaza por la monitorización continua de datos” (Lupton, 2016, p. 87). Este desplazamiento produce nuevas formas de alienación donde el sujeto ya no se reconoce en su sensación corporal, sino en lo que el dispositivo le dice sobre ella. Sin embargo, la subjetivación algorítmica que se genera con el uso de tecnologías de autodiagnóstico no es un proceso neutro. Desde una perspectiva foucaultiana, puede entenderse como una tecnología de biopoder, en la que la IA determina lo normal y lo patológico, lo funcional y lo disfuncional, de acuerdo con parámetros que no son meramente técnicos, sino profundamente sociales y políticos. Para Kate Crawford, “la inteligencia artificial no es una tecnología neutra: está profundamente entrelazada con estructuras de poder, economía y control social” (Crawford, 2021, p. 215). Esta relación entre técnica y poder se vuelve aún más compleja en el contexto del capitalismo de plataformas donde los datos personales, incluidos los biomédicos, se han convertido en materia prima para una economía extractiva: “la vigilancia se ha normalizado como forma de acceso a la verdad del sujeto. Pero esa verdad se convierte en un producto más” (Zuboff, 2019, p. 233). Lo que se presenta como una herramienta de empoderamiento se revela, en muchos casos, como un mecanismo de captura de valor y subjetividad, bajo lógicas neoliberales de rendimiento, control y eficiencia. Tamar Sharon aporta una lectura crítica de esta supuesta autonomía del usuario en los entornos digitales de salud. Según ella, “el usuario libre que se autodiagnostica es, en realidad, un sujeto configurado por una lógica neoliberal que externaliza la responsabilidad de la salud” (Sharon, 2017, p. 98). Es decir, la promesa de autonomía individual encubre una demanda estructural de autorresponsabilidad constante, que transforma la atención médica en una práctica de autovigilancia, productividad y autocontrol. Lupton sintetiza esta dinámica al señalar que “la creciente disponibilidad de tecnologías digitales ha contribuido a la emergencia de nuevas formas de autoobjetivación, donde el cuerpo es convertido en un conjunto de datos legibles, visualizables y manipulables” (Lupton, 2016, p. 11). Así, se reconfigura profundamente lo que significa estar enfermo o sentirse bien. El autodiagnóstico con IA debe entenderse como una forma de subjetivación algorítmica, donde el sujeto aprende a verse a sí mismo a través del lente de la máquina, adoptando una relación con el cuerpo mediada por estadísticas, gráficos y patrones. Como afirma Lupton, “los usuarios de estas tecnologías comienzan a confiar más en los números que en sus propias percepciones del cuerpo. La autoridad del dato reemplaza la autoridad de la experiencia vivida” (Lupton, 2016, p. 74). Este tipo de relación da lugar a una subjetividad dubitativa, que necesita validación digital para otorgar legitimidad a lo que siente. En esta transformación, no solo cambia el modo de entender la salud, sino también la forma misma de ser en el mundo. El autodiagnóstico, bajo el prisma de esta modernidad, deja de ser un acto de autogestión para convertirse en un procedimiento sin sujeto, sin agencia, sin vivencia. La aparente libertad se revela como una ilusión bajo el control de nuevos mecanismos de poder que normalizan el padecimiento y privan al sujeto de reflexionar y dar sentido a sus experiencias. La práctica médica deja así de tener como propósito el encuentro interpersonal y el alivio del padecimiento para quedar reducida a una aplicación de protocolos estandarizados, que muestran una sociedad sin lugar para lo imperfecto, sin lugar para el sujeto que padece. Finalmente, el autodiagnóstico revela el triunfo de un modelo que normaliza el padecimiento bajo el prisma de nuevos mecanismos de poder. La aparente agencia que proporciona el autodiagnóstico se disuelve frente a las lógicas algorítmicas que construyen el saber médico y categorizan a los sujetos sin tener en cuenta sus experiencias vivenciales, sin dejar lugar para que ellos sean sujetos de sus ideales, de sus padecimientos, de sus vulnerabilidades. La modernidad deja así de ser un proyecto de emancipación para convertirse en un dispositivo de control. La sociedad sin lugar para lo imperfecto revela que el sujeto se ha extraviado en el procedimiento de autogestión de sus emociones, sin dejar de ser el más vulnerable frente a aquel poder que lo configura y lo normaliza. Diego Rodríguez EstradaDirector y editor generaldrodriguez@ioaotavalo.com.ecORCID: 0000-0001-8896-6771DOI:10.51306/ioasarance.055.01Instituto Otavaleño de Antropología. (Otavalo. Ecuador) Referencias bibliográficas Berardi, F. (2000). La fábrica de la infelicidad. Gedisa. Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. Ehrenberg, A. (1998). La fatiga de ser uno mismo: Depresión y sociedad. Ediciones Nueva Visión. Foucault, M. (2007). El nacimiento de la clínica: Una arqueología de la mirada médica. Siglo Veintiuno. iComportamiento. (s. f.). El impacto de la inteligencia artificial en la salud mental. https:// icomportamiento.com/blog/el-impacto-de-la-inteligencia-artificial-en-la-salud-mental Illich, I. (1976). Némesis médica: La expropiación de la salud. Barral Editores. Illouz, E. (2010). Saving the modern soul: Therapy, emotions, and the culture of self-help. University of California Press. Infocop. (2025, abril 14). Beneficios y riesgos de la IA en la atención a la salud mental, según MHE. Infocop. https://www.infocop.es/beneficios-y-riesgos-de-la-ia-en-la-atencion-a-la- salud-mental-segun-mhe/Inteligencia artificial en la salud mental: Aplicaciones y perspectivas futuras. (s. f.). Arkangel AI. https:// www.arkangel.ai/es/blog-ai/the-role-of-ai-in-mental-health-applications-and-key- techniques Lupton, D. (2016). The quantified self: A sociology of self-tracking. Polity Press. National Geographic. (s. f.). ¿Es la inteligencia artificial útil para tratar temas de salud mental? https://www.nationalgeographic.es/ciencia/2024/07/inteligencia-artificial- problemas-salud-mental-peligros-oportunidades-uso-chatbots Quiroz, G. (2025, junio 13). Simulan pacientes con IA en la USFQ para formar a los psicólogos del futuro. El Comercio. https://www.elcomercio.com/tendencias/salud/simulan-pacientes-con- ia-en-la-usfq-para-formar-a-los-psicologos-del-futuro/ Roudinesco, É. (2005). El paciente, el terapeuta y el Estado. Siglo XXI Editores. Sharon, T. (2017). Self-tracking for health and the problem of autonomy: Reclaiming a technological practice. Philosophy & Technology, 30(1), 93–102. https://doi.org/10.1007/ s13347-016-0210-5 Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.