Conecta con nosotros

Revista

¡Hicieron enojar a Eduardo Videgaray en Twitter!

Eduardo Videgaray Caso sorprendió a todos al perder su peculiar humor en Twitter y contestarle con mucha furia a uno de sus seguidores.

El conductor comentó en su cuenta sobre el porcentaje mundial de la cantidad de personas que han muerto a causa del Covid-19.

El hermano del exsecretario de Relaciones Exteriores, minimizó la cantidad de muertes al asegurar que son pocas por equivaler en 0.0064 por ciento de la población.

»Somos 7,800,000,000 humanos en el planeta. Han muerto 500,000 por Covid-19, es decir 0.0064% de la población mundial», escribió.

Ante ese polémico mensaje de inmediato algunos usuarios comenzaron a atacarlo por ser insensible ante la problemática mundial que ha paralizado la economía.

Tras las múltiples respuestas que recibió su publicación, Eduardo Videgaray contestó algunos de los comentarios señalando que no se trataba de su opinión ni de filosofía, sino que eran datos que había sacado de la Organización Mundial de la Salud (OMS).

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto