Conecta con nosotros

Ciencia y Tecnología

Investiga hospital de Holanda error en 26 fecundaciones in vitro

Published

on

El hospital universitario de Utrecht (Holanda) abrió hoy una investigación médica tras revelarse que al menos 26 mujeres podrían haber sido inseminadas con el esperma erróneo durante el proceso de fecundación in vitro (FIV) al que fueron sometidas.

En un comunicado, el centro médico reconoce la existencia de estos fallos y explica que tuvieron lugar entre mediados de abril de 2015 y mediados del pasado mes de noviembre.

Según el hospital, se trata de «un error de procedimiento en el laboratorio» de las FIV.

«Por dicho error, la fecundación de los óvulos de 26 mujeres podría haber sido con el espermatozoide de otro hombre que no es el padre previsto», explicó.

Sin embargo, advierte de que «la posibilidad de que esto haya ocurrido es pequeña, pero no puede descartarse», por lo que abre una investigación con todos los afectados.

La mitad de las mujeres en cuestión han dado ya a luz o han logrado quedarse embarazadas.

Además, hay trece embriones congelados como parte de este tratamiento, que corresponde a la otra mitad de las parejas afectadas por el error.

El hospital asegura haberse puesto en contacto con las parejas y haber remitido todos los informes a la inspección de Sanidad.

Este proceso de FIV consiste en la inyección directa de una célula espermática en el ovocito y es en ese proceso donde se habría cometido la mezcla de espermatozoides.

El error se habría producido al utilizar la misma herramienta ya usada en otro tratamiento anterior con otra pareja.

Al darse cuenta de ello, el hospital asegura que ha detenido de inmediato todos los procesos de FIV que corresponden a ese periodo de tiempo.

En la nota, el centro médico también promete «minimizar» las consecuencias de este error para todas las parejas, así como clarificar lo ocurrido lo antes posible.

Las parejas que ya hayan tenido al bebé podrán someterse a una prueba de ADN para comprobar que no fueron víctimas de lo que le hospital califica de «error humano».

Mientras, las que aún estén en proceso, el hospital les da la opción de comenzar todo el tratamiento desde el principio.

 

Noticias MVS

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto