Conecta con nosotros

Revista

Así murió Juan Gabriel

La oficina forense de Los Ángeles reveló a través de su subdirector que al llegar a la casa donde se encontraba hospedado el cantante, luego de ofrecer la noche anterior un concierto, lo encontraron sin vida en el baño y trataron de reanimarlo.

Antes de la llegada del equipo de rescate, el forense declaró que dos empleados del cantante fueron los que lo encontraron y mientras llegaban los médicos calificados, trataron de reanimarlo, sin embargo se dieron por vencidos, pues el “Divo de Juárez” ya no respondió.

Su exrepresentante Silvia Urquidi declaró que el cantante se encontraba mal de salud, pero que nunca comentaba ninguna dolencia y además era poco disciplinado, pues padecía de diabetes, neumonía, hipertensión y afectaciones cardíacas.

Otro detalle que revelaron fue que la familia decidió no practicarle una autopsia, lo cual fue aceptado al no encontrar en sus cuerpo signos de violencia y al practicarle un examen de sangre no se encontró ingesta de medicamentos o droga.

Hace unos momentos la familia confirmó que el cantante recibirá un homenaje en Ciudad Juárez, como lo había propuesto el Gobernador del Estado César Duarte, quien dijo que las cenizas de Juan gabriel serían esparcidas en la chimenea de la casa de su madre.

 

 

Vanguardia

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto