Conecta con nosotros

Revista

VIDEO: Jake Paul le arranca la gorra a Floyd Mayweather y desata una trifulca de la que sale con un ojo morado

Un altercado se produjo este jueves entre el multicampeón en cinco categorías del boxeo Floyd Mayweather y el ‘youtuber’ y boxeador Jake Paul, hermano del reconocido ‘videoblogger’ Logan Paul, quien planea enfrentarse al ‘Money’ durante un combate de exhibición el próximo 6 de junio.

La bronca ocurrió al final de la primera rueda de prensa previa al combate, celebrada en el Hard Rock Stadium de Miami, después que Mayweather calificara a ambos hermanos como «peleadores falsos» y dijera que puede enfrentarse a los dos en una sola noche. En respuesta, Jake Paul lo retó a hacerlo y segundos después le arrebató la gorra y echó a correr.

A continuación se produjo entre ambos una trifulca y se pudo oír a Mayweather gritar «¡Te voy a matar, hijo de puta!».

Poco después del incidente, Paul escribió en su cuenta de Twitter que le quitó la gorra a Mayweather porque este «roba el dinero de la gente con peleas aburridas». «Honestamente, he tenido tres peleas fáciles como profesional, por eso he estado ansioso de acción real. Uno de los 30 guardaespaldas de Floyd me dio un golpe limpio al ojo. ¡Respeto!», reclamó en otro tuit.

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto