Conecta con nosotros

Resto del mundo

Sacan a mujer «de las greñas» por no usar cubrebocas en un bar

Bliss Causby fue arrastrada por un guardia de seguridad del lugar y sacada de las greñas por negarse a usar el cubrebocas. Sucedió en Chattanooga Billiard Club (CBC) en Cherry Street, en Tennessee.

Sin embargo, Bliss dio otra versión de los hechos a CBS.

«Me arrancaron un poco de cabello; mi cara estaba hinchada. Me duele el cuello. Tenía hematomas horribles en el brazo y la espalda”, señaló.

En el informe del Departamento de Policía de Chattanooga se lee que la Bliss accedió a colocarse el cubrebocas cuando se le solicitó, pero se la quitó posteriormente, por lo que le indicaron que el cubrebocas era obligatorio y que mejor se retirara del lugar.

Le pregunté por qué y luego se puso muy agresiva y me empujó. Y le pedí que no me pusiera las manos encima”, argumentó Bliss.

“Fue entonces cuando me agarró del pelo y me tiró al suelo”, señaló a CBS. Argumentó que al momento que tomaron el video que subieron a redes sociales, ellan no traía el cubrebocas porque estaba bebiendo.

Me golpeó en la cara, me golpeó en la cabeza, comenzó a patearme y fue entonces cuando un amigo se acercó y me sacó de allí”, señaló Bliss.

Agencias

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto