Conecta con nosotros

Increible

Científicos descubren que la mente humana puede ser ‘hackeada’

Published

on

Un grupo de investigadores internacionales demostraron que ya es posible leer la mente humana y revelaron que mediante varios dispositivos ‘inocentes’, que ya están disponibles en el mercado, es posible filtrar los pensamientos junto con las órdenes que enviamos al ordenador sin que nos demos cuenta. En el marco de su estudio, los científicos de la Universidad de Berkeley (EE.UU.), Oxford (Reino Unido) y Génova (Italia), observaron a 28 personas usando dispositivos llamados ‘interfaces cerebro-computadoras’ (BCI, por sus siglas en inglés). Se trata de un hardware que incluye un auricular (un electroencefalograma o EEG) con sensores y se ocupa de entender la actividad cerebral de los humanos. El BCI se utiliza generalmente en los centros médicos, junto con equipos costosos, pero los últimos años el producto, que empezó a aplicarse en algunos videojuegos, se hizo mucho más barato y accesible en el mercado.

Experimento Durante su estudio mediante este dispositivo los científicos fueron capaces de descubrir pistas sobre información privada, como la ubicación de las casas, rostros de gente conocida, y hasta las claves de tarjetas bancarias, PINs o fechas de nacimiento. Para poder extraer la información necesaria de la mente humana, los investigadores crearon un programa especial. Unos 300 milisegundos después de haber mostrado al sujeto una serie de imágenes de objetos y números desconocidos, en el cerebro humano aparecía una señal eléctrica muy específica, llamada ‘la respuesta P300’, que permitía acceder a la información de ciertas zonas del cerebro. Una parte del estudio consistía en solicitar a los usuarios memorizar un número de cuatro dígitos, tras lo cual se les mostraban una serie de números al azar. Como resultado, los expertos lograron adivinar el número memorizado a la primera en el 30% de los casos. No es la mejor probabilidad, afirman los investigadores, pero el método podría ser mejorado, por lo que la posibilidad de revelar cualquier información privada una vez deslizada por la mente humana pronto podría llegar a ser ‘pan comido’ para los delincuentes informáticos.

Clic para comentar

You must be logged in to post a comment Login

Leave a Reply

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto