L’intelligence artificielle encore loin d’effacer l’expert
Bientôt rebaptisée Fédération française de l’expertise automobile (FFEA), l’Anea a mis l’intelligence artificielle au cœur de son symposium 2021, le 15 octobre. L’événement a permis aux experts présents et aux représentants des réparateurs et des assureurs de constater que l’IA était encore loin de remplacer l’expert.
Depuis que l’intelligence artificielle est employée par les compagnies d’assurance et leurs plateformes de gestion de sinistres, elle fait office d’épouvantail pour la profession d’expert. Or, l’IA serait encore loin d’être en mesure de remplacer l’expert. Lors du Symposium 2021 de l’Alliance nationale des experts en automobile (ANEA), les interventions du préfet Renaud Vedel, coordinateur de la stratégie nationale pour l’IA auprès du gouvernement, et du chercheur de l’INSA de Rouen Stéphane Canu l’ont confirmé.
Collaboration homme/machine exigée
Technologie d’usage général au même titre que, jadis, la machine à vapeur, l’électricité, le moteur à combustion ou l’informatique, l’IA représentait déjà, en 2018, 11,4 % des brevets déposés dans le monde. Un chiffre en croissance exponentielle. Mais, basée aujourd’hui sur le "machine learning" (NdlR : l’apprentissage par la machine), l’IA se heurte encore à l’acquisition d’une variété de données qui échappe aux situations les plus fréquentes. L’IA se trouve donc limitée dans ses usages, qui nécessitent « une expertise humaine pour l’appliquer aux finalités d’un métier » selon Renaud Vedel.
« Il y a l’IA qui marche, celle liée aux données. Et il y a l’IA qui ne marche pas encore, celle liée à l’humain : traduire une langue, reconnaître une émotion, discuter avec un programme », relève Stéphane Canu. Malgré l’immense base de données sinistres dont disposent les assureurs, « il y aura toujours besoin d’une "cobotique", une collaboration humain/machine », plaide-t-il. « La singularité de chaque dossier d’expertise ne peut être amalgamée dans une seule base de données. L’IA n’est aujourd’hui qu’un outil complémentaire pour le chiffrage, qui va accélérer la gestion des dossiers et permettra d’accorder plus de temps au contradictoire avec le réparateur », insiste François Mondello, président de l’Anea. S’il y a des biais dans les données alimentant la base, en effet, il ne peut qu’y avoir des biais dans la machine, au bout du compte.
Pas de responsabilité juridique pour l’IA
« Pour l’instant, l’IA ne fait que fiabiliser et améliorer le chiffrage automatique des petits sinistres, raison pour laquelle les cabinets dont l’activité est assise sur ce type d’accidents doivent évoluer. Mais l’analyse d’image ne sert à rien sans l’interprétation des dommages cachés : la limite reste celle du traitement de l’image », reconnaît Stéphane Pénet, directeur général adjoint de la Fédération française de l’assurance (FFA). Pour l’ensemble des observateurs présents, l’IA ne deviendra pas un acteur à part entière dans le domaine de la réparation-collision. « Elle n’est qu’un outil et c’est son utilisateur qui en est responsable en premier lieu : hors de question d’accorder une responsabilité juridique à une IA », insiste le représentant des assureurs.
L’intelligence artificielle donne toutefois du grain à moudre à ceux qui présentent l’expert comme bras armé des assureurs. Trop souvent considéré comme simple prestataire de ces derniers, il veut se positionner comme un partenaire constructif. « Il faut se poser la question du vrai enjeu pour le client final des assureurs : l’automobiliste. S’agit-il seulement de lui faire gagner du temps dans la gestion de son sinistre ? Non », martèle François Mondello. D’où la nécessité de bâtir davantage de ponts entre experts, assureurs et réparateurs pour que l’IA s’enrichisse des expériences et des compétences de chacun. « La clef reste le client : quels sont ses besoins ? Comment nos métiers peuvent-ils y répondre ? », questionne Xavier Horent, directeur général du CNPA.
Contrat de confiance avec l’Etat
L’expert, en tout cas, garde l’appui de l’Etat dans sa mission, comme a tenu à le souligner Marie Gauthier-Melleray, déléguée interministérielle à la sécurité routière, qui n’était présente qu’au travers d’une vidéo durant le symposium. « L’IA est une vraie opportunité pour plus de sécurité routière mais il faut que tous puissent avoir confiance en elle. L’IA vient questionner la légitimité des acteurs qu’elle appuie, mais malgré sa réactivité et sa capacité d’apprentissage, elle ne peut se substituer à l’œil ni à l’expérience de l’expert, car son intervention reste indispensable pour estimer la dangerosité du véhicule et ses conditions de réparation », déclare-t-elle.
Et surtout : l’expert reste seul responsable de la validation ou non d’un dossier sinistre. Zoheir Bouaouiche, sous-directeur à la protection des usagers de la route, présent physiquement devant les experts de l’Anea, a rappelé à la suite de Marie Gauthier-Melleray que le contrat de confiance passé entre l’Etat et l’expert se traduisait par « l’habilitation accordée aux professionnels de l’expertise. Ce contrat de confiance oblige l’indépendance de l’expert et il doit être en mesure de contredire l’IA si nécessaire ».
Et le réparateur dans tout ça ?
Invité à participer aux échanges, Patrick Cléris, président de la Fédération des réseaux de carrossiers indépendants (FRCI), précise que l’IA présente plusieurs enjeux pour le réparateur. D’abord, l’algorithme de l’IA doit pouvoir améliorer la sécurité des prestations. « C’est une question de valorisation de notre métier auprès des jeunes générations », explique-t-il.
Ensuite, elle doit pouvoir faire gagner du temps et réduire le coût des réparations, « mais puisque la rigueur et la richesse d’un chiffrage automatisé passe par de bonnes photos, il faut améliorer la culture technique des pros en la matière. Et l’IA doit aider à préparer un pré-chiffrage qui a de la valeur, pour le temps, la méthode de réparation et les pièces utilisées. C’est la base d’un débat contradictoire avec l’expert ».
Des limites déontologiques posées
« Le contradictoire a pour but de trouver un accord : c’est le début du dialogue, et donc la fin de la soumission, y compris vis-à-vis de l’IA elle-même », reconnaît François Mondello. Invité à préciser les enjeux juridiques et de déontologie qui pèsent sur l’IA appliquée à l’expertise automobile, l’avocat et professeur agrégé de droit Joël Moret-Bailly, est venu rappeler les préceptes du Code de déontologie de l’expert posant les limites de l’IA dans la mission de celui-ci. « L’expert s’appuie sur sa propre expérience et ses compétences, qui l’aident à être plus précis et à détecter les signaux faibles qu’une IA ne peut pas forcément détecter. L’article 13 du code rappelle que l’expert intervient de manière indépendante, objective et impartiale, ce qui signifie que l’expert ne doit pas avoir d’intérêt à son expertise, à son chiffrage », rappelle-t-il.
Celui qui est également au haut comité de déontologie des experts en automobile a rappelé par ailleurs que « l’expert produit un rapport d’expertise que ne peut pas produire une IA et qui est un acte juridique, qui a vertu de droit : c’est le monopole de l’expert. Même l’Union européenne, qui a horreur des monopoles, admet celui-ci au titre de la mission de sécurité routière de l’expert. Ouvrir et clore un dossier, procéder à des interdictions de circulation, ce sont des actions de police administrative » qui ne peuvent être déléguées à une IA.
L’interfaçage : clef de la réussite
A l’image des réparateurs, qui déplorent la multiplicité des outils d’IA et des plateformes d’expertise à distance, les experts aussi regrettent le trop grand nombre de systèmes employés et la difficulté à tous les interfacer avec leurs logiciels métier. « Le fait que tous les systèmes d’IA soient des outils propriétaires nous empêche de plugger nos outils. Or, l’interfaçage est la clef de la réussite : s’il faut ressaisir toutes les informations d’un dossier dans nos propres logiciels, c’est une perte de temps », déplore François Mondello. La question du partage de données est aussi problématique. « Il faut réfléchir à une solution pour continuer à améliorer les compétences des outils d’IA tout en valorisant les données que l’expert leur apporte, car ces données ont de la valeur », ajoute le président de l’Anea.
Et celui-ci de relever enfin que les limites de l’IA se trouvent dans l’imputabilité des dommages et dans l’identification du véhicule lui-même, qui peut parfois être plus complexe qu’il n’y parait. « L’imputabilité est absolument essentielle, quand un dommage n’est pas imputable, il n’est pas indemnisé et sur ce point l’IA n’est pas encore pertinente ! Il faut en outre pouvoir estimer la valeur du véhicule en fonction de son état général. Une IA n’en est pas capable. Et avant même l’imputabilité, le problème de l’identification se pose : le numéro de série frappé à froid ne peut être détecté par l’IA telle qu’elle existe aujourd’hui », insiste François Mondello.