Hace poco más de un mes, el 28 de mayo, Google estrenó su servicio de almacenamiento inteligente de fotografías llamado Google Photos. Esta aplicación ofrece un sistema de reconocimiento facial, de lugares y objetos con el que organiza automáticamente las imágenes según lo que aparezca en ellas.
Jacky Alciné, un programador de 21 años de Nueva York, se llevó una desagradable sorpresa cuando este lunes revisaba sus álbumes y vio que Google Photos había generado uno titulado Gorilas. En él, incluía fotografías en la que aparecía junto a una amiga... ambos de piel negra. Indignado, hizo público lo ocurrido a través de su cuenta de Twitter:
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) junio 29, 2015
Google Photos, la caga#$%. Mi amiga no es un gorila.
Fuck, the only thing under this tag is my friend and I being tagged as a gorilla. What the fuck? -__
— diri noir avec banan (@jackyalcine) junio 29, 2015
Mierda, lo único etiquetado como gorilas somos mi amiga y yo.
What kind of sample image data you collected that would result in this son?
— diri noir avec banan (@jackyalcine) junio 29, 2015
¿Qué tipo de imágenes de muestra tomaron para que éste sea el resultado?
And it's only photos I have with her it's doing this with (results truncated b/c personal): pic.twitter.com/h7MTXd3wgo
— diri noir avec banan (@jackyalcine) junio 29, 2015
Y esto sólo ocurre en fotos en las que salgo yo con ella.
Like I understand HOW this happens; the problem is moreso on the WHY.
This is how you determine someone's target market.
— diri noir avec banan (@jackyalcine) junio 29, 2015
Sus mensajes llegaron hasta Yonatan Zunger, arquitecto jefe de Google+, quien respondió a sus mensajes en Twitter pidiendo disculpas. Revisó personalmente lo ocurrido y se comprometió a buscar una solución para evitar errores similares. Además, Google decidió eliminar temporalmente la etiqueta Gorilas.
@jackyalcine Thank you for telling us so quickly!
Sheesh. High on my list of bugs you *never* want to see happen. ::shudder::
— Yonatan Zunger (@yonatanzunger) junio 29, 2015
Gracias por avisarnos tan rápido. Vaya, esto está muy arriba en la lista de errores que no quieres que NUNCA vuelvan a ocurrir.
@wiselar @louisgray @jackyalcine I wish it were. Until recently, it was confusing white faces with dogs and seals. Machine learning is hard.
— Yonatan Zunger (@yonatanzunger) junio 30, 2015
Según ha informado Yahoo, el servicio de fotografías Flickr también experimentó problemas similares con su algoritmo de etiquetado automático. En mayo, algunos usuarios se quejaron de que las etiquetas "animal" o "mono" se añadían automáticamente a imágenes de personas tanto de piel blanca como negra.
La versión original de este artículo apareció en El Huffington Post de España.
ADEMÁS >>>