Un error cometido por el algoritmo de Facebook se ha convertido en dolor de cabeza para la red social, que se la limitado a disculparse por el hecho y trabajar en la falla.
Facebook es una de las redes sociales clave en la comunicación actual a través de plataformas digitales.
Un aspecto que ha ayudado al marketing digital hoy en día ha sido la inteligencia artificial, de hecho es una táctica clave en la materia.
Esta no es la primera vez que el reconocimiento facial falla en una plataforma de gran peso digital como Facebook, también Google ha cometido errores al respecto.
Un error cometido por parte del algoritmo de Facebook ha puesto en jaque a la red social y es por ello que la famosa plataforma ha establecido un pésimo referente del reto que la inteligencia artificial sigue presentando en la actualidad.
Esta serie de sucesos se han convertido en caso de lo que hoy en día no podemos perder de vista, por la capacidad que tienen las redes de comunicar y cómo una falla de esta magnitud afecta la estrategia y la capacidad con que cuentan para poder hacerlo de forma acertada.
Sin lugar a dudas un aspecto que no podemos desestimar en estos esfuerzos es el que tiene que ver con la forma como las redes sociales están definiendo retos cada vez más audaces.
Facebook ha cometido un lamentable error y es que el algoritmo de la plataforma confundió un video de afromericanos y a quienes lo observaron, les recomendó seguir viendo contenidos relacionados con “simios”.
El hecho fue un error y más que esto, un recordatorio de lo desafiante que se ha vuelto comunicar en la actualidad dentro de un mercado, que hoy en día debe de trabajar en una de las tecnologías clave del digital marketing.
Tras el incidente ocurrido en junio pasado, dos medios han sido claves en exhibir a la plataforma: The Daily Mail y The New York Times, revelando el caso y obligando a que la plataforma se disculpara, asegurando que lamentaba la publicación de las que dijo fueron ofensivas recomendaciones.
Frente a este incidente, la promesa de Facebook fue de que estaría trabajando en prevenir errores como este en futuras recomendaciones por parte de su IA, como los que ya han con grandes compañías como Google, cuando en 2015 la palabra gorilas enlistaba entre sus resultados a personas afroamericanas