Los métodos tradicionales para diagnosticar condiciones de salud mental requieren que el paciente hable directamente con el siquiatra. Es un enfoque teóricamente válido, pero en la práctica puede implicar meses de programación y trabajo y además eventualmente puede producir diagnósticos subjetivos. Por ello, hay científicos buscando formas para automatizar este proceso y herramientas de Inteligencia Artificial (IA) han demostrado ser capaces de detectar un amplio conjunto de condiciones mentales, desde la ansiedad hasta la depresión, con una precisión que excede los métodos convencionales de diagnóstico.
Al analizar las propiedades acústicas del habla, hay modelos de IA que pueden identificar marcadores de depresión o de ansiedad, de los cuales el paciente puede no estar consciente y mucho menos estar en capacidad de articularlos. Es cierto que elementos como el tono, el timbre y el ritmo tienen cada uno un rol, pero el poder real de estos modelos de IA es su habilidad para discernir patrones imperceptibles al oído del psiquiatra. Las aplicaciones potenciales son innumerables. Las ondas acústicas facilitan la evaluación del paciente, más allá de llegar a articular su estado mental o alguna angustia. Al trabajar en varios idiomas, se puede ampliar el universo de personas e incluso llegar a zonas rurales aisladas sin cobertura de profesionales de la salud mental. Para las clínicas sobre cargadas de pacientes, el análisis del habla pudiera ayudar al triaje de pacientes y al monitoreo continuo para aquellos con tratamientos en casa.
Los diagnósticos son valiosos, pero solo representan el primer paso. Diferentes personas, con la misma condición, frecuentemente necesitan tratamientos individualizados para los síntomas que más los afectan. Con la depresión, algunos tienen problemas con la memoria, otros con la fatiga. El próximo paso con esta prometedora tecnología es la construcción de modelos que ayuden a los médicos a personalizar los tratamientos.
IA ha venido siendo usado por profesionales de la salud mental. Por ejemplo, los Modelos Grandes de Lenguaje (LLM) pueden profundizar en las transcripciones de las entrevistas ubicando patrones en el lenguaje y claves contextuales sintomáticas de desórdenes psicológicos. Sin embargo, la IA basada en textos tiene limitaciones. Matices culturales, barreras del lenguaje y diferentes niveles de fluidez pueden distorsionar los resultados. Asimismo, los LLM tienden a reflejar los sesgos prevalentes en la sociedad. Todo esto, sin olvidar la capacidad de “alucinar” que tienen los LLM. Es por ello, que los nuevos métodos en desarrollo no se concentran en palabras individuales, sino más bien en como esas palabras son dichas.
Pre-entrenamiento
Un modelo chino busca cambios sutiles en la voz del paciente. La hipótesis de los investigadores es que aquellos con depresión pudieran tener formas de hablar demasiado finas o sutiles para ser detectadas por el oído humano. El sistema utiliza “pre-entrenamiento” – una técnica en la cual el modelo es inicialmente expuesto a enormes cantidades de habla general para ayudarlo a reconocer patrones de audio complejos. Estos patrones pueden incluir variaciones en ritmo, variedades de tono y calidades de la voz que son típicamente imperceptibles al oído humano. Este pre-entrenamiento le permite al sistema identificar variaciones intrincadas de habla que puedan señalar depresión, sin necesidad de entender las palabras que la componen. Como fase siguiente, los investigadores hacen “entonamiento-fino” del sistema específicamente para la detección de depresión, con la ayuda de grabaciones de pacientes con depresión.
Este método de entonación ha demostrado una precisión sorprendente. Ha detectado la presencia de depresión en una tarea de clasificación binaria el 96% del tiempo, y ha tenido una precisión de 95% cuando se le ha pedido que categorice la severidad en cuatro niveles (no depresión, leve, moderada y severa) basado en una escala clínica existente.
Otro método
Investigadores en La Sorbona, han desarrollado un método que analiza ondas de sonido a través de una App del teléfono inteligente para detectar varias condiciones de salud mental. Primero, las ondas de sonido son convertidas en mapas visuales, llamados espectrogramas, que muestran como la frecuencia y el volumen de la voz cambia en el tiempo. Después el modelo examina el espectrograma de cada individuo para señales indicadoras de varios desórdenes psiquiátricos, incluyendo depresión, ansiedad, insomnio y fatiga. El modelo de IA es pre-entrenado en un extenso conjunto de grabaciones de voz, aprendiendo patrones generales de habla y sus características. Desde allí utiliza este conocimiento para interpretar los espectrogramas de los individuos en el estudio. Este método aplica técnicas de aprendizaje profundo para automáticamente extraer elementos relevantes de la data cruda, en lugar de basarse en las características acústicas pre-definidas, Los resultados preliminares son prometedores.
Se hace referencia a AI offers an intriguing new way to diagnose mental-health conditions. La imagen es cortesía de Bing Image Creator.
Comentarios recientes