IA ou AI, tais-toi, TAY !

Une IA Bien Imparfaite, Tout Comme Nous

Les 11 et 12 juin derniers s’est tenue la 2ème édition de AI PARIS à la cité de la Mode et du Design.
C’est une manifestation regroupant des conférences et des expositions sur l’Intelligence Artificielle.
Mon récent post sur l’IA, était centré sur la stratégie française pour gagner la bataille de l’Intelligence Artificielle face aux USA et à la Chine.
Ce qui m’intéressait à AI PARIS c’était de voir des applications concrètes et leur niveau de développement.

Ça  me fout un peu la trouille quand même, peut-être parce que je suis tombé dans la science-fiction quand j’étais petit et que tous les scénarios possibles – y compris les plus noirs – ont été écrits depuis longtemps.
Je vous raconte pourquoi un peu plus bas.

Petit inventaire à la Prévert 

Avec la Chine, les États-Unis et le Royaume-Uni, la France fait partie des quatre pays qui produisent le plus d’articles sur l’intelligence artificielle.
Elle compte environ 300 entreprises spécialisées dans l’IA, 5300 chercheurs, 81 écoles d’ingénieurs et 38 universités qui délivrent 138 cours liés à l’IA.

Pour cette 2ème édition d’AI PARIS, il y avait près de 100 sociétés participantes.
Une grosse moitié d’éditeurs de solutions en IA, le reste se répartissant entre sociétés conseils, grandes entreprises, éducation et presse.
Soit environ un cinquième des éditeurs IA, ce qui est à la fois encore peu mais plutôt pas mal pour une 2ème édition.
Quand on sait que le rythme de création d’entreprises dans l’IA est de 30% par an, la prochaine édition sera donc édifiante.

Ce qui m’a marqué

On sait que l’IA a besoin d’être nourrie d’une masse considérable de données – obtenues en crawlant le web ou puisées dans des bases de données propriétaires – pour ensuite pouvoir les analyser, apprendre, tester des scénarios et délivrer un résultat.

Beaucoup d’éditeurs proposent des IA pour analyser les données, construire et proposer des modèles prédictifs dans des secteurs aussi variés que le marketing, les RH, la finance, la communication, la R&D, le risque, la sécurité… grâce à leur savoir faire de data scientist, de leurs algorithmes de Machine Learning, de chatbot,…
En automation, les IA sont éduquées pour pouvoir prendre des décisions visant à améliorer (disrupter) des processus initialement exécutés tout ou partie par l’homme (robotique industrielle, conduite automobile, etc.)

Parmi ces éditeurs, quelques-uns aux noms improbables ou dans des secteurs très pointus – parfois les deux – comme celui de la génération d’emails (AIzimov – un sacré clin d’œil au pape de la SF), du cookie vocal (Allo Media), du pricing (Brennus-analytics), de la lutte contre la fraude financière (Bleckwen), de la blockchain (Neurochain), de la reconnaissance visuelle (GlobalSensing), de l’exploitation des données cartographiques du smartphone (Roofstreet), de l’entreprise augmentée (La Javaness), de l’humain augmenté (XXII)…

Bref, on rentre dans le dur du business des IA et c’est là que ça devient chaud devant !

Ce que dit Maathics

Maathics est un projet porté par des mathématiciens qui ont décidé de créer un label d’utilisation équitable de L’IA baptisé   FDUFair Data Use .
Il vise à détecter, quantifier et expliquer les sources de discrimination par les algorithmes.
Maathics est parti du constat que l’IA allait améliorer la prise de décision mais que les algorithmes, que l’on croit « neutres » par définition, reproduisent une réalité biaisée, des stéréotypes qui rendent opaque une décision et créent un risque de discrimination.

Mais comment s’assurer qu’un service IA est un usage équitable, sans discrimination, au sens d’une décision non pénalisante pour une minorité ?
Si une minorité est sous représentée dans les données ou défavorisée, même sans intention de nuire, l’IA va forcément reproduire et amplifier les biais sociaux.

En reproduisant nos stéréotypes :

  •  l’IA peut se montrer sexiste : il y a de multiples exemples documentés dans tous les domaines (lire ce récent article du Monde ici)
  • l’IA peut se montrer raciste : aux USA, ils ont utilisé une IA pour aider les juges à prédire le risque de récidive. Après plusieurs années, la pratique a été abandonnée car il a été démontré que les résultats étaient biaisés en fonction de l’appartenance à une minorité ethnique.
  • en 2016, une intelligence artificielle baptisée Tay, développée par les équipes de Microsoft a dû être débranchée en urgence pour avoir tenu des propos racistes et injurieux après avoir été facilement « éduquée » par des internautes peu scrupuleux

Le label couvre aussi la RGPD qui est en pleine actualité, en s’assurant de  :

  • La loyauté du traitement
  • L’absence de discriminations
  • la transparence de la décision et le droit à l’information
  • du principe de responsabilité

S’assurer que les traitements automatiques mis en œuvre ne reproduisent pas ces biais et discriminations observés dans le monde naturel est un enjeu de société majeur.

BRRRR

La dirigeante de Maathics craint que Parcoursup, la plateforme d’admission dans l’enseignement supérieur gérée par l’éducation nationale ne puisse réussir le test FDU vu les commentaires des enseignants sur les règles d’admission utilisées.

Dans sa présentation, la startup Roofstreet, spécialiste IA de la géolocalisation, nous a expliqué comment à partir des trajets des possesseurs de mobiles, ils créaient de la valeur pour leurs premiers clients.
Ils utilisent 2 IA pour observer les habitudes et prédire les trajets en traçant nos mobiles.

Ce qu’ils nous en ont dit :

  • Même si les trajets sont incomplets, leurs IA sont capables de reconstituer les parties manquantes et de prédire là où nous irons
  • Quand ils croisent ces données de nos déplacements ( 35millions de profils de base recueillis) avec des données sociologiques (âge, sexe, catégorie socio-professionnelle avec lieu de départ donc d’habitation, étapes et lieux de destination), les IA sont capables d’établir un profiling complet des personnes qui se déplacent.
  • Chaque jour Roofstreet anonymise les données pour les traiter et respecter les règles de Privacy.
  • Il faut aussi que le possesseur du smartphone ait donné son accord (optin by design)
  • Enfin, les données sur nos habitudes sont détruites au bout de trois mois.
  • Leur model business est de vendre un SDK (Kit de Développement Logiciel) aux entreprises qui souhaitent intégrer leur technologie pour adresser leur marché directement ou de vendre des rapports d’analyse des données agrégées aux sociétés qui ont besoin de définir des cibles d’emplacement pour optimiser leur mix media, implanter des nouveaux espaces commerciaux, trouver des trajets alternatifs en cas de problème de trafic, etc.

Jusque là, ça allait à peu près bien, mais à la question :
« Cela signifie-t-il que vous pouvez déduire devant quels magasins je passe, la vitrine devant laquelle je me suis arrêté et me pousser des publicités ciblées sur mes trajets en fonction de mes search sur internet et de mon profil, sans parler d’autres usages… ? ».
La réponse a été « OUI mais on a décidé de ne pas faire de retargeting, de l’exclure de notre model business ».
Qu’adviendra-t-il alors avec d’autres sociétés qui retiendraient cette option ?

Brrrrr, ça jette un froid.

Le rapport sur l’intelligence artificielle rédigé par le mathématicien et député Cédric Villani avec près de 560 contributeurs, a été rendu public en mars 2018.
Selon son auteur, lauréat 2010 de la médaille Fields – la plus haute distinction mondiale en mathématiques, ce n’est pas rien – :  « Il faut une instance pour émettre des avis, donner des jugements en toute indépendance, qui puisse être saisie par le gouvernement comme par les citoyens, et qui nous dise ce qui est acceptable ou non acceptable». 

Je ne sais pas s’il ne faudra pas une instance IA pour juger dans le monde des IA.
Mais je persiste et signe : il faut s’en occuper, c’est à dire écouter, comprendre, expérimenter, corriger pour avoir des positions fondées.
Notre avenir en dépend.

Pour une IA Zen !

Comments:2

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.