Conecta con nosotros

Slider Principal

Una menor en Sinaloa murió mientras grababa un TikTok

Jazmín tenía 15 años y estaba de vacaciones con su familia en la comunidad Ruiz Cortines Tres, Sinaloa. El pasado jueves, mientras grababa un video para la red social Tiktok falleció. De acuerdo con la Fiscalía General del Estado, la menor decidió hacer un mortal video que implicaba el uso de un arma. Jazmín sostenía un subfusil Uzi, calibre nueve milímetros, el cual cayó al suelo y se accionó. Un disparo terminó con la vida de ésta joven.

La víctima fue encontrada por su madre y abuelos. Tenía unas mancha de sangre, por lo que llamaron a la línea de emergencia. Al acudir al sitio, los paramédicos De la Cruz Roja le informaron a los familiares que la menor una no tenía signos vitales.

La información hasta ahora disponible detalla que el arma pertenecería al padre de la menor, quien es investigado por tener este tipo de metralleta.

El subfusil Uzi se utilizó durante algún tiempo en el Ejército; sin embargo poco después fue retirado por no contar con seguros.

La titular de la fiscalía, Sara Bruna Quiñonez Estrada aseguró que ya investigan cómo ocurrió el crimen, y si se trató de un accidente.

TikTok creció imparable durante la pandemia por coronavirus.Se trata de una red social donde los usuarios graban videos de pocos segundos y los comparten entre sus seguidores.

Los expertos han advertido que TikTok es mucho más de videos de humor y bailes. Aseguran que debido al éxito de la red social, los cárteles de las drogas la están utilizando para reclutar contrabandistas.

Además, las autoridades han detectado que a través de TikTok los usuarios pueden tener una vía de contacto informal para preguntar por el distribuidor del cártel en Estados Unidos, París u Holanda, así como pactar envíos a través de quienes se cree son sicarios de Nemesio Oseguera Cervantes o Ismael Zambada García, el Mayo, pero gustan de mostrar contenidos como ya lo hacían en otras redes sociales.

En México ha nacido un termino conocido como narcomarketing, que hace referencia a las grabaciones de los narcotraficantes en las redes. TikTok se usa para generar una imagen de lujo y glamour, para mostrar los “beneficios” de unirse a las actividades delictivas.

En los videos se promocionan imágenes con dinero en efectivo, fiestas, armas de grueso calibre y mascotas exóticas, como tigres.

Al escribir el nombre de alguna organización criminal, en TikTok u otras redes, lo aparecen corridos, fotografías y videos de la narcocultura localizada en las entrañas digitales.

La búsqueda de palabras claves como “Jalisco Nueva Generación”, “Mencho”, o “Cártel de Sinaloa”, nos ofrece videos de sicarios fabricando droga, o autos estacionados de convoyes con sujetos armados, además de vehículos de lujo. Algo que es casi inamovible de estos clips es el narcocorrido de fondo.

Resto del mundo

Sam Altman advierte: las conversaciones con ChatGPT podrían usarse como evidencia en tribunales

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia sobre el uso excesivo de ChatGPT, especialmente entre jóvenes que recurren a la inteligencia artificial para obtener consejos personales o emocionales. Su principal señalamiento: las conversaciones mantenidas con la IA no están legalmente protegidas como lo estarían las que se tienen con un abogado o un terapeuta.

De acuerdo con declaraciones recogidas por el medio Telegrafi, Altman enfatizó que la información personal compartida con ChatGPT podría ser utilizada como prueba en un juicio. Esto abre una serie de implicaciones legales para quienes confían detalles delicados a la plataforma, creyendo que son confidenciales.

«Muchas personas le cuentan a la inteligencia artificial detalles muy personales de sus vidas», advirtió Altman. «Pero esa información no goza del mismo nivel de privacidad que sí existe, por ejemplo, entre un paciente y un profesional de salud mental».

Además, Altman expresó su preocupación por la creciente dependencia emocional e intelectual de la IA, en especial entre los más jóvenes. Señaló que considerar a ChatGPT como “la voz final” para tomar decisiones importantes en la vida es un error peligroso.

Ante este panorama, el CEO de OpenAI aseguró que la empresa está trabajando activamente en soluciones que promuevan un uso más responsable de la inteligencia artificial, y que se acerquen a los estándares éticos y de privacidad que rigen en otras profesiones sensibles.

Esta advertencia refuerza la necesidad de entender los límites legales y éticos del uso de IA, especialmente en contextos personales o sensibles.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto