Avances en Inteligencia Artificial y PNL


Las personas con enfermedades mentales o problemas psicológicos apenas tienen visibilidad, y en muchos casos no se les puede dar toda la atención que requieren.

  En España, más del 9% de la población convive con alguna enfermedad mental, y según la Organización Mundial de la Salud, nuestro país dispone de seis psiquiatras por cada 100.000 habitantes



En Estados Unidos, los problemas vinculados a la salud mental afectan a uno de cada cinco adultos al menos una vez en su vida. A escala mundial, cerca de 83 millones de personas están afectadas solo en Europa. Por eso es importante la utilización de IA, unida al seguimiento médico, para controlar o descubrir efectos adversos, e incluso llegar a neutralizarlos.

Para conocer más al cliente también se fomentan aplicaciones como Companion, un sistema capaz de monitorear el teléfono de una persona. Analiza el sonido de la voz del usuario y la frecuencia de uso de su teléfono móvil, la energía del tono y la cantidad de palabras habladas, así como el uso del teléfono proporcionando indicadores de comportamiento.

Pero eso no es todo, Además es capaz de aprender desde nuestras horas de sueño, pasando por la música o el contenido que consultamos, hasta los lugares hacia los que comúnmente solemos conducir para, posteriormente, ofrecernos facilidades y sugerencias.

La IA no forma parte de ninguna construcción social, normas o expectativas culturales, y es más fácil que el paciente pueda abrirse de primeras.


ELIZA, un programa básico de PNL desarrollado en 1966, recreaba el comportamiento y las respuestas de un psicoterapeuta. Las intenciones de su creador se pueden ver particularmente alineadas con las de Woebot. Woebot aprende sobre el individuo y adapta sus preguntas a su situación a través de conversaciones. .  Funciona de manera similar a una aplicación de mensajería instantánea y fue creado por la psicóloga de investigación clínica Alison Darcy para replicar la capacidad de escuchar.

El verdadero debate está en las últimas medidas adoptadas por Facebook, red social que empezó a usar su propio sistema de inteligencia artificial para detectar usuarios que podrían estar considerando la opción del suicidarse. Esta IA utiliza algoritmos entrenados para reconocer patrones en los textos que sugieren que una persona está planteándose hacerse daño.

No hay comentarios: