Conecta con nosotros

Ciencia y Tecnología

La Ibero y la Cruz Roja impulsan uso de inteligencia artificial para localizar desaparecidos en México

Published

on

La Universidad Iberoamericana (Ibero) anunció que trabaja en la conformación de un consorcio con el Comité Internacional de la Cruz Roja (CICR) para incorporar la inteligencia artificial (IA) en los procesos de búsqueda de personas desaparecidas en México, donde se registran más de 133 mil casos según el Registro Nacional de Personas Desaparecidas y No Localizadas (RNPDNO).

El proyecto surge tras una serie de mesas de trabajo realizadas del 13 al 17 de octubre en la Ciudad de México, en las que participaron especialistas nacionales e internacionales, autoridades capitalinas, organizaciones civiles y representantes de colectivos de búsqueda de distintos estados.

La Ibero explicó que la iniciativa busca “tecnificar la búsqueda de personas desaparecidas” mediante el uso de IA para procesar grandes volúmenes de información, detectar patrones y generar hipótesis que faciliten las investigaciones y la localización de personas.

Durante los encuentros, se analizaron los posibles usos de herramientas tecnológicas avanzadas, como la clasificación automatizada de documentos, el reconocimiento facial aplicado a contextos forenses, la reconstrucción de imágenes mediante aprendizaje profundo y el reconocimiento óptico de caracteres (OCR) para analizar expedientes judiciales. También se habló del uso de bases de datos ontológicas que permitan interconectar información dispersa en los distintos sistemas institucionales.

La universidad destacó que México ya desarrolla proyectos con resultados preliminares en este campo, como “Angelus”, impulsado por el Consejo Nacional de Humanidades, Ciencias y Tecnologías (CONAHCyT) y la Comisión Nacional de Búsqueda (CNB), cuyo objetivo es automatizar la comparación y el reconocimiento de rasgos humanos para agilizar los procesos de identificación.

Además, se reconoció la experiencia de países como Siria, Colombia y Chile, donde tecnologías similares han sido empleadas en contextos de búsqueda y justicia forense.

“La búsqueda y la identificación forman un continuo inseparable cuyo objetivo último es restituir la identidad y la verdad sobre el paradero de una persona desaparecida”, subrayó la Ibero en su comunicado, destacando que el uso ético y responsable de la inteligencia artificial podría representar un avance significativo frente a la crisis de desapariciones que enfrenta el país.

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto