Skip to main content

Algorithmes et normes sociales: quel rapport avec l’éducation sexuelle? | Connecté à la santé

Il y a plusieurs mois, j'ai lu un article dans le San Francisco Chronicle sur la publicité Facebook. Non, ce n'était pas un article sur la confidentialité ou la sécurité des données, c'était un article qui illumina les défis de l'algorithme d'intelligence artificielle publicitaire de Facebook qui interprète les images «explicites». Maintenant, je vais être franc. Normalement, je m'écarte dès que quelqu'un dit «intelligence artificielle». Je sais que c'est pratiquement un blasphème ici dans la Silicon Valley, mais cela m'a toujours semblé trop éthéré ou non pertinent depuis que je vis dans le monde des services sociaux et que je ne me suis jamais fait un technicien … jusqu'à ce que je lise cet article.

Pour paraphraser, le défi devant Facebook était que leur algorithme publicitaire interprétait différemment les corps masculins et féminins dans les images publicitaires, rejetant certaines annonces, tout en acceptant d'autres. Par exemple, lorsqu'un livre d'amour mettait en vedette une femme avec un dos nu sur sa couverture, il était rejeté. Mais dans une annonce similaire, cette fois avec un homme découvrant le torse, cela a été accepté.

Nous pourrions avoir une discussion approfondie sur les normes communautaires de Facebook et pourquoi certaines parties anatomiques sont jugées appropriées ou inappropriées, ou comment les évaluateurs humains de Facebook interprètent ces normes. Mais ce qui m'intéresse va au-delà de la façon dont Facebook filtre leurs annonces. Cela remonte à la création de l'algorithme, à l'écriture du code informatique.

Pensez à cela pendant un moment. Le code informatique est développé par des êtres humains. Nous aimons penser que l'intelligence artificielle est complètement objective – c'est une machine, après tout. Mais à un moment donné, il y a eu une conversation entre les ingénieurs logiciels de Facebook sur les paramètres à mettre en place afin que leur code puisse interpréter efficacement les vastes quantités d'images que les annonceurs soumettent à l'approbation. Aux fins de la discussion, je suppose qu'il y a eu une conversation réfléchie entre ces ingénieurs et experts hypothétiques, au sujet de vouloir s'assurer que les graphiques sexuellement explicites ont été rejetés, ce que la plupart des gens peuvent largement admettre comme important. Mais comment décident-ils ce qui est considéré comme «sexuellement explicite»? Une peau nue sur un corps est-elle considérée comme sexuellement explicite? Et si c'est une main ou un pied nu? Et les différentes couleurs de peau? Qu'est-ce qui est considéré comme «sexuellement suggestif»? Comment le code informatique interprète-t-il les corps masculins et les corps féminins? Est-il basé sur des prototypes standard de corps masculins et féminins? Comment connaît-il la différence entre un mamelon sur un corps masculin et un mamelon sur un corps féminin? Comment l'âge, le poids, la taille et d'autres facteurs jouent-ils? La liste des questions est pratiquement sans fin.

Il ne s'agit pas ici de critiquer Facebook pour son algorithme publicitaire. Je suis certain que c'est un défi auquel toutes les entreprises de médias sociaux sont confrontées, non seulement avec la publicité, mais avec le filtrage de la grande quantité d'autres images qu'elles rencontrent. Il s'agit de souligner le fait que l'intelligence artificielle est développée par des êtres humains, ce qui signifie que nous programmons nos normes sociales dans les algorithmes qui contrôlent tous nos systèmes d'IA.

Alors, que pouvons-nous faire à ce sujet? Et qu'est-ce que cela a à voir avec l'éducation sexuelle?

Tout d'abord, je pense que cela met en évidence l'importance d'avoir diverses équipes d'ingénierie logicielle qui n'ont pas peur d'avoir des conversations réfléchies et intentionnelles sur la façon dont les attentes et les normes de genre en matière de sexualité sont programmées dans les vastes quantités de code informatique que nous utilisons quotidiennement. Des équipes composées des mêmes types de personnes – que ce soit des hommes, des femmes, de la même couleur de peau, toutes anglophones, toutes des grandes régions métropolitaines, faites votre choix – ne pourront tout simplement pas penser à tout des interprétations ou des résultats possibles de choix de programmation particuliers.

Nous avons besoin de diverses perspectives sur ces équipes d'ingénieurs pour demander pourquoi un dos féminin est considéré comme explicite et un torse masculin ne l'est pas – pour garantir que le biais implicite en chacun de nous ne prend pas le dessus.

Et, oui, le sexe a également un rôle à jouer. Health Connected passe beaucoup de temps dans nos cours à demander aux élèves de réfléchir à leurs propres valeurs en ce qui concerne les normes de genre, d'écouter et d'accepter que différentes personnes ont des valeurs différentes sur le corps et la sexualité, et de poser des questions sur la manière dont les différents genres sont représentés dans les médias. À quoi ressemble le pouvoir masculin et féminin dans les chansons, les émissions et les films populaires? Comment le sexe est-il décrit dans ces chansons et émissions? Tous les corps ressemblent-ils à ceux représentés dans les films, les émissions et, oui, la publicité? Nous leur apprenons à penser de façon critique à l'imagerie qui leur est fournie par les vastes quantités de médias qu'ils consomment.

Beaucoup de ces jeunes que nous enseignons finiront par devenir ingénieurs logiciels dans 5, 10 ou 15 ans. Ce sont les personnes dont nous avons besoin dans les équipes d'ingénierie qui créent les algorithmes d'intelligence artificielle de demain. Peut-être que dans un avenir pas trop lointain, nous arriverons au point où nos machines pourront penser au-delà des limites de leurs programmeurs, qui a son propre ensemble de questions éthiques compliquées. Mais pour l'instant, ce sont les étudiants d'aujourd'hui qui vont poser les questions critiques sur les normes sociales que nous devons poser pour que notre intelligence artificielle modifie nos normes sociales, pas les amplifie.