Conecta con nosotros

Slider Principal

Pide ayuda a la policía para su hijo autista y los agentes disparan al niño

El viernes pasado Linden Cameron, un adolescente estadounidense de 13 años, sufría una crisis nerviosa derivada del síndrome de Asperger que padece, un trastorno del desarrollo dentro del espectro autista. Su madre, Golda Barton, llamó al 911, el teléfono de emergencias, confiando en que la policía de su ciudad, Salt Lake City (Utah), la ayudara a hospitalizarlo. Pero, en lugar de recibir apoyo, el joven Linden recibió los balazos de un agente que se presentó en su casa. Ahora está ingresado en estado grave con heridas en el intestino, la vejiga, los hombros y los tobillos.

«Es solo un crío. Tiene problemas mentales», declaró entre lágrimas la madre a una televisión local. «¿Por qué no lo agarraron y ya está?». La madre asegura que su hijo no iba armado y la policía, de la que ella dice que no apenas le ha dado explicaciones de lo sucedido, afirma que no encontró arma alguna en el lugar de los hechos, recoge The Washington Post.

«No importan las circunstancias, lo sucedido el viernes es una tragedia y espero que se lleve con celeridad y de manera transparente por el bien de todos los implicados», aseguró en un comunicado el alcalde de Salt Lake City, el demócrata Erin Mendenhall.

La madre de Lindon describe a su hijo como un amante de los videojuegos, los quads y los longboards (un tipo de patineta), y señala que a menudo sufre crisis de ansiedad cuando ella se ausenta. «Llama una a la policía y lo que espera es que aparezcan y encaucen la situación usando la mínima fuerza posible», ha apuntado en referencia a su llamada al 911. «Les dije: ‘no va armado; no lleva nada; simplemente se le va la cabeza, y empieza a chillar y a gritar». «Es un niño. Intenta llamar la atención y no sabe poner medida», ha añadido.

Según el relato de Golda Barton, cuando la policía llegó a su casa le pidieron a ella que saliera. Desde fuera escuchó a los agentes instar a su hijo a que se pusiera en el suelo. Después, sonaron los disparos. Un portavoz de la policía señaló esa misma noche que los agentes sospechaban que el joven iba armado. «¿Por qué no usaron una pistola taser? ¿o una pelota de goma?», se pregunta la madre. El caso está siendo investigado ahora de manera independiente.

El abordaje policial de las personas con trastornos mentales en EE UU ha suscitado críticas a lo largo del país. El caso con más repercusión más reciente es el de Daniel Prude, un hombre de 41 años que el pasado 23 de marzo sufría una crisis nerviosa. Su hermano llamó a la policía de Rochester (Nueva York) y, cuando los agentes se presentaron, encapucharon a Daniel. Murió al cabo de unos días por las secuelas de la falta de oxígeno que sufrió durante su arresto. Un vídeo publicado a principios de este mes muestra que la víctima no iba armada y que además obedeció a la policía.

Fuente: El País

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto