Salut à tous,
Comme le stipule l' intitulé effrayant de mon topic :
La première semaine de septembre 2017 a marqué un tournant dans le monde de la recherche en Intelligence Artificielle :
selon
une étude à paraître dans la revue Journal of Personality and Social Psychology, une IA a été en mesure de découvrir la sexualité d'une personne en ne se basant que sur une photo. La reconnaissance faciale suffirait donc à dire si une personne est hétérosexuelle ou homosexuelle.
La découverte ne manque pas de soulever des questions éthiques : le risque pour la population homosexuelle, encore largement discriminée et persécutée, est bien présent.
Dans un long article publié sur
TechCrunch le 7 septembre 2017, Devin Coldewey a analysé plus en détail cette découverte. Les chercheurs de l'Université de Stanford annoncent en effet des résultats impressionnants : lorsque l'intelligence artificielle a comparé deux images, l'une d'une personne hétérosexuelle et l'autre d'une personne homosexuelle de même sexe, elle a pu deviner laquelle des deux était homosexuelle, avec une précision de 91 % pour les hommes et 83 % pour les femmes. C'est bien plus que le taux de réussite d'un humain à qui on poserait la même question.
L'IA a pu obtenir cette réussite en analysant quelque 35 326 images relatives à 14 776 personnes. Les chercheurs ont associé les photos à l'orientation sexuelle grâce aux données, publiques, d'un site de rencontres. Mais dès lors que l'échantillon était plus représentatif de la répartition de la population homosexuelle et hétérosexuelle, soit 7 % contre 93 % selon les estimations, les résultats étaient bien moins impressionnants.
L'IA ne s'étant fiée, pour ses analyses, qu'aux visages, cette étude présente plusieurs risques. Le premier, bien évidemment, est celui de la résurgence de la thèse plus que controversée d'un « gène de l'homosexualité ». Mais les implications de cette recherche vont encore plus loin.
Les auteurs eux-mêmes déclarent qu'ils n'étaient pas sûrs que la publication de ces résultats était une bonne idée : ils estiment que chacun doit dévoiler son orientation sexuelle de lui-même, quand il le souhaite. Mais il y a surtout un risque d'utiliser un logiciel de ce type dans les pays où l'homosexualité est réprimée.
Malgré la réussite médiocre lors des échantillons représentatifs de la population et malgré une recherche pouvant être considérée comme en partie biaisée (seules des photos de jeunes blancs représentant la binarité homosexuel/hétérosexuel ont été utilisées, donc pas l'ensemble du spectre des orientations sexuelles ni des ethnies), il n'est pas impossible qu'une IA puisse être améliorée pour identifier avec exactitude les orientations sexuelles des personnes. Et il est difficile de voir quelles utilisations positives elle pourrait avoir ;
les utilisations néfastes, au contraire, sont légion.
@+
Source : Paolo GAROSCIO, le 11/09/2017, clubic ...