Новости по-русски

Pour le logiciel d'Apple Siri, «bitch», ça veut dire femme en «argot noir»

Pour le logiciel d'Apple Siri, «bitch», ça veut dire femme en «argot noir» La technologie peut-elle être raciste? Le Huffington Post a pointé que lorsque quelqu'un demandait à Siri, le logiciel de commande vocale d'Apple, la définition du mot «bitch» (que l'on peut traduire, en Français, par garce), l'application donnait quatre définitions. Dans l'une d'entre elles, c'est «une femme méchante ou peu plaisante» avec une sous-définition polémique: «(argot noir) une femme». Capture d'écran de la définition donnée par Siri, sur le site du Huffington Post.  Dérapages sur Google photos et Flickr L'article du Huffington Post explique qu'Apple, et donc Siri, utilisait le New Oxford American Dictionary pour le catalogue de définition du logiciel. Cependant, la qualification du dictionnaire ne donnait pas la fameuse sous-définition. De plus, dans l'Urban Dictionary, un site crowdsourcé (et donc théoriquement plus propice aux dérives) qui explique la définition des mots et expressions provenant de l'argot, les explications pour le mot «bitch» sont «bien moins sexistes et racistes», selon le Huffington Post. La technologie est souvent amenée à faire des dérapages racistes. En juillet 2015, l'application Google Photos avait identifié deux personnes noires dans la catégorie «gorilles». The Independent rappelle également l'exemple de Flickr, le site de stockage de photo, qui avait identifié certaines personnes noires comme des singes. Flickr avait indiqué avoir réparé l'algorithme. En 2012, le site Funny or D ...

Читайте на 123ru.net