Conecta con nosotros

Increible

Mujer aplica crema para disfunción eréctil en ojo por mala letra del médico

Published

on

Por no entender letra del médico, a una mujer le vendieron crema para la disfunción eréctil en vez de lubricante para ojos y terminó en el hospital, con lesiones.

El médico le había recetado un lubricante para ojos llamado VitA-POS, que se usa para tratar la sequedad y erosión corneal.

Pero cuando fue a la farmacia y entregó la receta escrita a mano, el personal le dio Vitaros, una crema para la disfunción eréctil.

Los hechos ocurrieron en Glasgow, la ciudad más grande de Escocia, según información de BBC.

Después de aplicar el medicamento, la mujer sufrió dolor en el ojo, visión borrosa, rojez e inflamación en el párpado, por lo que tuvo que acudir a urgencias.

En el hospital le administraron antibióticos tópicos, esteroides y lubricantes que ayudaron a que las lesiones sanaran, unos días después.

Un informe de BMJ Case Reports, una herramienta educativa de la revista médica BMJ que recoge casos médicos, hizo un llamamiento a que los médicos escriban las recetas con letras mayúsculas para evitar errores como este.

Los errores en las recetas son comunes y los medicamentos que tienen nombres y cajas parecidas aumentan el riesgo”, afirmó la autora del informe, Magdalena Edington, doctora del Instituto de Oftalmología de Tennent, en Glasgow.

La especialista señaló que “en este caso es inusual que ningún individuo, incluyendo a la paciente, médico general y farmacéutico, haya cuestionado que una crema para la disfunción eréctil haya sido recetada a una paciente mujer que tenía instrucciones de aplicación para los ojos”.

Agregó que “este es un asunto importante del que informar para mejorar la concientización y fomentar que las recetas se hagan de forma segura”.

En Reino Unido, la mayoría de las recetas se escriben en la computadora y se imprimen o, incluso, se envía una versión digital directamente a la farmacia que elija el paciente. Sin embargo, aún hay médicos que las hacen a mano.

Magdalena Edington abogó por que los nombres de los medicamentos sean redactados con mayúsculas, pero también deben incluir todos los elementos, como el guion en VitA-POS, por ejemplo.

Según un estudio hecho por varias universidades del país y dado a conocer el año pasado, hospitales, farmacéuticos, médicos generales y residencias en Reino Unido podrían estar cometiendo un total de 237 millones de errores en recetas cada año. Es decir, uno de cada cinco medicamentos recetados.

Estos datos incluyen la entrega de medicina errónea, pero también la dosis incorrecta o el retraso en la administración del fármaco.

Según el estudio, la mayoría de estos casos no llegó a causar problemas, pero más de uno de cada cuatro podría haber provocado daños en los pacientes.

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto