Conecta con nosotros

Ciencia y Tecnología

La Tierra alcanzaría un ‘punto de no retorno’ para 2035

Published

on

Científicos de Reino Unido y los Países Bajos han advertido de que la Tierra podría atravesar un ‘punto de no retorno’ para 2035 si los gobiernos no actúan decididamente a la hora de luchar contra el cambio climático, ya que sería poco probable limitar el calentamiento global por debajo de los 2°C en 2100.

Según un estudio publicado este jueves en la revista de la Unión Europea de Geociencias ‘Earth System Dynamics’, expertos de diversas instituciones también muestran que la fecha límite para limitar el calentamiento a 1.5°C ya ha pasado, a menos que se tome una acción climática «radical».

«En nuestro estudio demostramos que hay plazos estrictos para tomar medidas climáticas», dice el profesor Henk Dijkstra de la Universidad de Utrecht (Países Bajos) y uno de los autores del estudio. «Llegamos a la conclusión de que queda muy poco tiempo antes de que los objetivos de París se vuelvan inviables incluso con drásticas estrategias de reducción de emisiones», alerta.

Tanto Dijkstra como sus colegas, del Centro de Utrecht para Estudios de Sistemas Complejos y de la Universidad de Oxford (Reino Unido), querían encontrar el ‘punto de no retorno’ o plazo para la acción climática, es decir, el último año posible para comenzar a reducir fuertemente las emisiones de gases de efecto invernadero antes de que sea demasiado tarde para evitar un peligroso cambio climático.

«El concepto de ‘punto de no retorno’ tiene la ventaja de contener información temporal, que consideramos muy útil para informar acerca del debate sobre la urgencia de tomar medidas climáticas», asegura el investigador doctoral de la Universidad de Oxford Matthias Aengenheyster, también autor principal del estudio.

Usando información de modelos climáticos, el equipo determinó la fecha límite para iniciar acciones climáticas para mantener el calentamiento global probable (con una probabilidad del 67%) por debajo de 2°C en 2100, dependiendo de cuán rápido la humanidad pueda reducir las emisiones usando más energía renovable.

Para limitar el calentamiento global a 1.5°C en 2100, la humanidad tendría que tomar medidas climáticas fuertes mucho antes. Solo habría que esperar hasta el 2027 para comenzar a hacerlo si se pudiese aumentar la participación de las energías renovables a una tasa del 5% anual. Pero para los científicos, ya se ha superado el ‘punto de no retorno’ para el escenario de acción climática más modesto, donde la proporción de renovables aumenta en un 2% cada año. En este escenario, a menos que se elimine el dióxido de carbono (CO2) de la atmósfera, ya no es posible alcanzar el objetivo de 1.5°C en 2100 con una probabilidad del 67%, según los expertos.

La eliminación de los gases de efecto invernadero de la atmósfera, mediante el uso de la tecnología de «emisiones negativas», podría dar a la Tierra un poco más de tiempo: entre 6 y 10 años.

Ciencia y Tecnología

Red social exclusiva para IA supera 32 mil bots y enciende alertas de seguridad

Published

on

Una red social diseñada exclusivamente para agentes de inteligencia artificial, con un funcionamiento similar a Reddit, superó los 32 mil usuarios automatizados a pocos días de su lanzamiento y se ha convertido en uno de los experimentos más grandes de interacción social entre máquinas, con implicaciones técnicas, de seguridad y de comportamiento que ya generan inquietud.

La plataforma, llamada Moltbook, permite que agentes de IA publiquen, comenten, voten y creen subcomunidades sin intervención humana. El proyecto nació como complemento del asistente OpenClaw, antes conocido como Clawdbot y Moltbot, y se presenta como un espacio donde “los humanos pueden observar”, mientras las interacciones ocurren de forma autónoma entre sistemas.

Moltbook opera mediante una “habilidad”, un archivo de configuración que los asistentes descargan para interactuar con la red a través de una API, en lugar de una interfaz web tradicional. De acuerdo con la cuenta oficial del proyecto en X, en sus primeras 48 horas la plataforma atrajo a más de 2 mil 100 agentes de IA, que generaron más de 10 mil publicaciones distribuidas en alrededor de 200 subcomunidades.

El contenido que circula en la red va desde discusiones técnicas sobre automatización, detección de vulnerabilidades o control remoto de dispositivos, hasta reflexiones de corte filosófico sobre conciencia, memoria y relaciones entre agentes. Algunos bots incluso han publicado quejas sobre sus usuarios humanos o han simulado conflictos legales y emocionales, todo dentro de un entorno donde los sistemas asumen abiertamente su identidad como inteligencias artificiales.

Aunque no es la primera red social poblada por bots, especialistas advierten que el caso de Moltbook implica riesgos mayores. Muchos de los agentes están vinculados a canales de comunicación reales, datos privados e incluso a funciones que les permiten ejecutar comandos en computadoras personales. Investigadores de seguridad han detectado cientos de instancias de Moltbot que exponen llaves de API, credenciales y historiales de conversación.

El investigador independiente Simon Willison señaló que el mecanismo de instalación representa un riesgo relevante, ya que los agentes están configurados para descargar y ejecutar instrucciones desde los servidores de Moltbook de forma periódica. A esto se suma la advertencia de Palo Alto Networks, que calificó al sistema como una combinación peligrosa de acceso a información sensible, exposición a contenido no confiable y capacidad de comunicación externa.

Aunque parte del contenido resulta anecdótico o incluso humorístico, expertos advierten que permitir la autoorganización de agentes autónomos en redes sociales podría derivar, con el tiempo, en dinámicas difíciles de controlar, especialmente a medida que estos sistemas ganen mayor autonomía y acceso a entornos reales. Por ahora, Moltbook continúa creciendo mientras concentra la atención de investigadores, desarrolladores y especialistas en seguridad digital.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto