Conecta con nosotros

Ciencia y Tecnología

Mexicanos desarrollan sistema informático que detecta riesgos de suicidio

Published

on

Egresados de la Universidad de Guadalajara (UdeG) trabajan en el desarrollo de un sistema informático, denominado chatbot, que funciona a través de las redes sociales para ayudar a detectar factores de riesgo de suicidio.

Debido a que en los últimos años el auge de las redes sociales ayuda a entablar diálogos entre grupos sociales, los jóvenes Manuel Santana Castolo y Patricia Brand diseñaron una estrategia para disminuir este tipo de conductas entre los jóvenes.

Los estudiantes de la universidad buscan elaborar un bot (programa) que interactúe con usuarios mediante el servicio de mensajería que ofrece facebook, y que pueda detectar cuando existan factores de riesgo de suicidio y exista la posibilidad de brindar la atención necesaria.

Patricia Brand, egresada de la licenciatura en Psicología, destacó que la idea es que a través de la comunicación que el bot establecería con los usuarios, se podría detectar si hay depresión o riesgo suicida. Aclaró que no es un diagnóstico, es solo una detección y de ser posible una canalización con los profesionales de la salud adecuados.

En 2015, datos del Instituto Nacional de Estadística y Geografía (Inegi) contabilizaron un total de seis mil 285 suicidios en todo el país, lo que se traduce en una tasa de 5.2 fallecidos por cada 100 mil habitantes.

Después de observar esta problemática, al ingeniero biomédico Manuel Santana inició el desarrollo de la aplicación para detectar riesgos; consideró las dificultades para hacer llegar esta iniciativa a los más jóvenes, por lo que optó por apoyarse en plataformas ya existentes (redes sociales) para concretar la idea.

Para llevar a cabo este proyecto, ambos especialistas se unieron para buscar la metodología y así detectar los factores de riesgo de suicidio, información que utilizarán para enriquecer el bot.

“Estamos buscando implementar algoritmos de inteligencia artificial. La idea es que estos algoritmos vayan mejorando con los usuarios, conforme más preguntas procese, mejor se interpretarán las respuestas”, señaló Santana en entrevista con la agencia informativa del Consejo Nacional de Ciencia y Tecnología (Conacyt).

En una primera etapa, el chatbot recibirá la información básica de los usuarios para elaborar un primer perfil sobre la persona que interactúa, y después se trabajará con preguntas hechas con base en manuales médicos para trazar una ruta que ayude a detectar los factores de riesgo.

Por tanto, una vez que es sistema detecte factores de riesgo, se pondrá en contacto con los usuarios previamente establecidos como referencia, o con instituciones que den tratamiento y asesoramiento en torno a salud mental.

Los jóvenes universitarios, esperan que a mediados de octubre se libere una primera etapa de este bot en pacientes control y con antecedentes.

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto