Meetup Women TechMakers à Paris, organisé par le PAUG et le GDG

Jeudi 12 octobre, les locaux parisiens de Google ont accueilli un meetup un peu exceptionnel : celui des Women TechMakers, organisé par le Paris Android User Group et le Google Developer Group. Composé à la base de trois talks, nous avons eu la chance de voir passer deux intervenantes supplémentaires. Cet article traitera des sujets Women TechMakers. Le deuxième talk, Associate Android Developer Exam par Gaëtan Herfray ne sera donc pas couvert ici, malgré sa pertinence et son utilité pour la développeuse Android que je suis !

Pourquoi ce meetup ?

Les intervenantes, Marion Hayoun (PAUG) et Tiffany Souterre (GDG), nous présentent deux photos :

  • Une d’un évènement WTM dont on voit qu’il est uniquement composé de femmes.
  • Une du Devfest où on constate énormément d’hommes.

C’est pour casser ce genre de clichés que des meetup sur ce sujet doivent avoir lieu. Pour s’inscrire à celui de jeudi, il fallait de préférence s’inscrire à deux et avec une personne du sexe opposé.  Et ça marche : 53% de femmes et 47% d’hommes dans la salle ce soir-là.

Unconscious Bias par Berthilde Goupy

Le biais inconscient, c’est cette petite chose qui nous raccroche aux stéréotypes et qu’on s’efforce de combattre. Mais il faut déjà avoir conscience de son existence pour s’en débarrasser.
Ce biais a son utilité. Berthilde nous rappelle que pendant la préhistoire, c’est lui qui nous poussait à courir en cas de danger. Tout ce que l’on fait est un traitement de la data. De commander un café (du lait ? du sucre ?) à choisir sa place dans le bus. Aujourd’hui, on consomme trop de data et nous ne pouvons pas gérer autant de données (le cerveau peut en traiter 40 bits alors qu’on en reçoit 11 millions) : c’est le biais qui nous permet de comprendre et traiter la différence.

La suite du talk nous propose de jouer à un petit jeu. Un mot à droite, un mot à gauche, un mot au milieu. Si le mot du milieu est identifié comme correspondant au mot de droite, il faut lever la main droite et vice versa. Le but est de lever la main le plus rapidement possible.

Au premier tour, Homme et Femme s’affichent de chaque côté et au milieu, des mots communs comme Mari, Oncle, Fille au milieu. Les bras se lèvent vite dans l’assemblée.
On passe ensuite à Homme ou Science d’un côté et Femme ou Art de l’autre. Des mots comme Chimie, Biologie, ou Géologie apparaissent au milieu et les bras se lèvent plutôt vite. Au final, on intervertit : Femme ou Science et Homme ou Art. Les mêmes mots qu’au tour précédent apparaissent au milieu, mais les bras se lèvent moins vite.
Ce test de Harvard est encore utilisé et c’est la rapidité de réponse qui est prise en compte, notre hésitation entre notre instinct et notre logique. Problème : les résultats n’ont pas évolué depuis les années 80.

On est tous biaisés, mais finalement, ce n’est pas grave ! L’important, c’est de s’en rendre compte.

Autre exemple : huit niveaux de postes existent chez Google. Plus le niveaux est haut, moins il y a de poste. On débute l’expérience avec une parité parfaite à chaque niveau, en appliquant néanmoins un biais positif de 1% aux hommes. Ce biais peut être imaginé par une notation sur 100 pour les femmes alors que les hommes seront notés sur 101 par leurs pairs. On lance vingt itérations de promotion et on constate alors que ce biais plutôt faible, crée des disparités assez violentes. Alors imaginez dans le monde réel, où on est loin des 50% au départ et que ce biais est des fois nettement supérieur à 1…

Pourtant la diversité dans une équipe apporte énormément :

  • Google Calendar était développé aux Etats-Unis par une équipe entièrement américaine. Il a donc été pensé uniquement avec… le format de date américain. Le lancement a été un échec.
  • YouTube iOS a connu un souci lors de son démarrage : 5 à 10% des vidéos étaient à l’envers. En fait, l’équipe entière était droitière, et les vidéos en question étaient prises par des gauchers.
  • Les Doodles sont extrêmement connus, mais en 2013, un journaliste a fait le point : pour 10 Doodles fêtant l’anniversaire d’un homme scientifique, 1 voir 0 fêtait celui d’une femme scientifique. L’année d’après, la parité était respectée.

Il existe donc 4 biais inconscient : Social, Decision-Making, Memory, Probability.
Mais il existe 4 actions pour s’en débarrasser : Be Prepared, Bring it up, Point it out and Be Visible!

Aujourd’hui, tous les Managers de chez Google doivent passer une formation pour gérer les situations discriminantes.

 

Wild Code School par Anne Stepanoff

En interlude, c’est la directrice de la Wild Code School qui vient nous parler. Cette école forme des développeurs en 5 mois.
Dès le début de l’école, elle souhaitait combattre pour la parité mais ne recevait que 25% de candidatures de femmes et démarrait toujours l’année avec 25% d’étudiantes. Plusieurs actions ont alors été mises en place :

  • Pas de chaussures dans l’école. On se déchausse en arrivant, pour ressentir un sentiment de bien-être et de liberté.
  • La sensibilisation : les postes sont nombreux et les avantages non négligeables.

Mais ça ne suffisait pas, les chiffres ne bougeaient pas. Alors, ils ont voulu prendre des formatrices… Mais n’en ont pas trouvé. Et finalement cette rentrée marque l’arrivée d’une classe uniquement composée d’étudiantes. C’est une action radicale mais qui semble avoir attiré beaucoup plus de femmes. De mon point de vue, c’est la création d’une zone de confiance, où le syndrome de l’imposteur est alors moins prédominant, qui fait la réussite de ce programme.

 

Scholarship Programs par Meriam Maadi

Meriam nous a présenté plusieurs programmes pour les étudiant(e)s.

Il existe aussi des programmes plus généraux :

  • Google Code Jam : Compétition de programmation Online
  • Google Code Jam For Women : Compétition de programmation en un seul tour, uniquement ouvert aux femmes. Les 150 premières gagnent une place pour la Google I/O

 

Women In AI

Dernier passage, une représentante de Women In AI. Leur but est de représenter et faire connaître les femmes travaillant sur l’intelligence artificielle. Elle pointe l’importance de diversifier les concepteurs : une IA ressemble à son équipe de développement et si celle-ci manque de diversités, l’IA sera aussi peu représentative.

 

Conclusion

Enfin c’est Marion Hayoun (PAUG) qui a repris la parole pour nous montrer que cette année encore, malgré leurs efforts, ils n’avaient eu que 7 speakers femmes à l’AndroidMakers sur plus de 50 sessions. Mais les chiffres vont en grandissant et ils prennent maintenant l’initiative d’aller chercher eux-mêmes ces speakers femmes.

 

J’attendais un meetup de ce genre à Paris depuis pas mal de temps. Les problèmes de diversité dans notre profession sont clonés sur ceux que l’on peut voir sur les bancs des écoles et des facs aujourd’hui. J’ai entendu des professeurs d’université catastrophés devant des promotions de Licence entièrement composées d’hommes en 2015. Un d’eux m’a même contacté pour venir présenter mon métier aux premières années car quasi aucune étudiante n’avait fait le choix de continuer l’informatique. Ce genre d’initiative (meetup, présentation, etc) permet de présenter notre métier, casser certains clichés et asexuer un métier qui n’aurait jamais dû l’être.

L’engagement des personnes que nous avons pu voir jeudi était réellement encourageant. Et comme l’a souligné Marion Hayoun : Stronger Together.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Ce formulaire est protégé par Google Recaptcha