L’Intelligence Artificielle dans la construction : l’impératif éthique

Aug 4, 2021 | Article, Novade

Le secteur de la construction commence à adopter l’intelligence artificielle (IA) et à tirer profit des aptitudes technologiques à s’appuyer sur des séries de données passées et à anticiper l’avenir. Penser des lieux de travail plus sûrs et de meilleurs modèles d’approvisionnement. Cependant, en même temps, la technologie représente certains dilemmes pour les entreprises du BTP. Qui dit plus d’informations, dit plus de responsabilités.

Comment une organisation peut-elle garantir une confidentialité des données et des mécanismes de gouvernance solides ? Quel est le bon niveau de transparence pour les différents types d’information ? Et comment assurer équité et chantiers libres de toute discrimination avec des informations et des perspectives sensibles à portée de main ?

L’IA est une technologie très puissante. Elle est pourtant à la disposition de quiconque possède un ordinateur avec un accès à Internet. Pour certaines personnes, cette combinaison de puissance et d’accessibilité plaide en faveur de la mise en place de standards éthiques stricts.

Difficile de s’opposer à l’élaboration et à l’application de garde-fous pour réduire les possibilités d’abus malveillants et de mauvais usages. Mais les interventions éthiques peuvent poser problème. Elles reposent sur des principes moraux et ont souvent des significations différentes pour différentes personnes.

L’Europe est à l’avant-scène de la réflexion éthique sur l’IA. En 2019, la Commission européenne a publié ses lignes directrices en matière d’éthique pour une Intelligence Artificielle construction digne de confiance. Selon les directives, une IA de confiance doit être :

  1. Licite, en assurant le respect des législations et réglementations applicables ;
  2. Éthique, en assurant l’adhésion à des principes et valeurs éthiques ; et
  3. Robuste, sur le plan technique et social.

Les directives présentées ci-après proposent une série de conditions essentielles que les systèmes d’IA doivent remplir pour être considérés comme fiables.

  1. Facteur humain et contrôle humain : les systèmes d’IA doivent responsabiliser les êtres humains, en leur permettant de prendre des décisions éclairées et en promouvant leurs droits fondamentaux. En parallèle, assurer des mécanismes de contrôle adaptés, ce qui peut se faire par une interaction humaine continue (human-in-the-loop) et une surveillance et un contrôle humains permanents (approches human-on-the-loop / human-in-command).
  2. Robustesse et sécurité techniques : les systèmes IA doivent être résilients et sécurisés. Ils doivent être sûrs et garantir un plan de secours en cas de problème. Ils doivent aussi être précis, fiables et reproductibles. Ce n’est qu’ainsi que l’on pourra garantir une réduction et une prévention des dommages, y compris des dommages non-intentionnels.
  3. Respect de la vie privée et gouvernance des données : En plus d’assurer un respect total de la vie privée et une protection des données, il faut également prévoir les bons mécanismes de gouvernance des données, en tenant compte de la qualité et de l’intégrité des données, et en assurant un accès légitime aux données.
  4. Transparence : Le système de données et les business models d’IA doivent être transparents. Les mécanismes de traçabilité peuvent y contribuer. En outre, les systèmes d’IA et leurs décisions doivent être expliqués de manière adaptée à la partie concernée. Les humains doivent avoir conscience d’interagir avec un système d’IA et être informés de ses capacités et de ses limites.
  5. Diversité, non-discrimination et équité : Tout biais doit être évité, car il pourrait avoir de multiples implications négatives, de la marginalisation de groupes vulnérables à l’exacerbation des préjugés et de la discrimination. Vecteurs de diversité, les systèmes d’IA doivent être accessibles à tous, indépendamment de tout handicap, et impliquer les parties intéressées tout au long de leur cycle de vie.
  6. Bien-être sociétal et environnemental : les systèmes d’IA doivent profiter à tous, y compris aux générations futures. Ils doivent être durables et écologiques. En outre, ils doivent considérer l’environnement, y compris les autres êtres vivants, et leur impact social et sociétal doit être soigneusement évalué.
  7. Responsabilisation : instaurer des mécanismes pour garantir la responsabilité et la responsabilisation des systèmes d’intelligence artificielle construction et leurs résultats. La vérifiabilité, qui permet l’évaluation des algorithmes et des processus de données et de conception, joue un rôle clé, en particulier pour les applications critiques. En outre, assurer une réparation adaptée et accessible.

Les directives sont susceptibles de poser de réelles implications pour les entreprises du bâtiment dans un futur proche. Afin de le prouver, nous avons exposé trois exemples hypothétiques ci-dessous.

Violations de la vie privée, transparence et exigences de non-discrimination

Imaginez que SafetyAI, une solution d’IA fictive, est opérationnelle sur l’un de vos sites de construction. SafetyAI passe au crible et traite des milliers de paramètres sur tous les aspects du site pour protéger les personnes. Ce faisant, elle recueille de grandes quantités de données sur Joe, un employé de longue date.

SafetyAI trace la température corporelle de Joe, ses expressions faciales, son pouls, sa gestuelle, ainsi que le temps et la fréquence de ses pauses. Elle a aussi accès à l’ensemble des dossiers médicaux de Joe qui sont mis à disposition de l’entreprise. Intéressons-nous à trois scénarios possibles susceptibles de survenir, compte tenu de ces faits.

Dans le premier scénario, qui se concentre sur la confidentialité des données et les exigences de gouvernance, SafetyAI découvre par inadvertance que Joe souffre d’une maladie rare. Cette maladie n’empêche pas Joe de réaliser le travail qui lui est confié, mais elle pourrait affecter sa productivité à terme.

Et si le manager de Joe obtenait cette information et l’utilisait contre lui en le licenciant ? Et si Joe conservait son emploi mais votre compagnie d’assurance découvrait son état de santé ? Et si Joe n’avait pas conscience de cette maladie rare ?

Dans le deuxième scénario, SafetyAI avertit soudainement votre chef de chantier d’un incident imminent susceptible d’impliquer Joe. Le manager suspend immédiatement le chantier et exige la démission de Joe. Le manager demande davantage d’informations à SafetyAI pour clarifier la situation. Même si SafetyAI peut prévoir un incident avec une probabilité élevée, il ne peut pas en fournir l’explication.

Ce scénario illustre les limites du système et son manque de transparence. Le système n’est pas équipé pour expliquer les décisions de façon à ce que le manager et l’équipe de chantier puissent les comprendre. Ce type de résultat aurait pu être évité en faisant différents choix techniques et de mise en œuvre, pour en comprendre la raison.

Le troisième scénario, comme le deuxième exemple, implique un potentiel incident. Ici aussi, le chantier s’arrête et le manager demande à Joe de démissionner. Cette fois, lorsque le manager souhaite des éclaircissements, les informations qui fournissent la connaissance sont accessibles et transparentes.

Il s’avère que SafetyAI a examiné les incidents de sécurité et identifié tous ceux impliquant des travailleurs originaires d’un pays spécifique. Bien sûr, prendre pour paramètre le pays d’origine n’est pas pertinent et représente une forme de préjugé et de discrimination. Dans cet exemple, l’algorithme a injustement pris pour cible Joe et les autres travailleurs.

Si votre organisation fait face à ces dilemmes, comment votre équipe répondrait-elle ? Ces exemples fictifs soulignent l’importance de bien comprendre les obligations et les possibles impacts sur votre activité. Une fois l’incident survenu, il est souvent trop tard. La planification, les processus et les actions rapides vous permettront de protéger vos travailleurs, votre organisation et votre réputation.

Le changement de paradigme autonome dans le bâtiment se prépare

Un jour, les systèmes autonomes seront la norme, y compris sur les chantiers. Pensez au matériel lourd et aux équipements de levage, aux systèmes automatisés de montage des murs, aux robots de charge, aux postes à souder et machines de découpe et aux drones de contrôle de la qualité. L’utilisation progressive des systèmes autonomisés dispose de sa propre série de difficultés éthiques.

Comment les humains et les machines automatisées vont-ils coexister sur le chantier ? Cela va-t-il accroître ou réduire la probabilité d’accidents à court ou à long terme ? On peut affirmer que les systèmes d’intelligence artificielle construction vont tenir la veille, calculer les seuils de risques en temps réel et accompagner le processus de décision tout au long du parcours.

L’avantage de l’implication humaine, ou une réponse automatique d’IA, en cas d’urgence reste un sujet de débat non résolu. Que se passe-t-il si une action immédiate s’impose pour sauver une vie ? Qui est le mieux placé pour prendre cette décision…l’humain ou le système d’IA ?

Les personnes d’expérience peuvent prendre des décisions rapides et efficaces, en apparence inconsciemment. Si des systèmes d’IA seront nécessaires pour remplir cette fonction, les systèmes auront besoin d’être programmés en ce sens en amont.

Avec un cadre éthique en place, l’IA promet de rendre l’industrie du bâtiment plus sûre et productive que jamais. Cependant, toutes les organisations devraient tenir compte des risques et des dilemmes, outre des bienfaits, avant d’adopter une solution d’IA. Celles et ceux qui conçoivent et implémentent l’IA ont également un rôle clé à jouer pour faire face aux questions éthiques complexes et ultrasensibles avec la plus grande prudence, transparence et expertise.

 

Denis Branthonne

Denis est le fondateur et PDG de Novade et croit en une approche terrain des projets de construction. Denis a grandi en France, obtenu son Master d’ingénieur au MIT et a travaillé précedemment chez Autodesk comme Vice-Président des marchés émergents et de l’APAC. 

Novade

Novade dispose d’une équipe spécialisée dans le digital pour accompagner les entreprises du BTP tout au long de leur transformation numérique. Avec une expérience mondiale sur un large éventail de projets et de processus de construction, l’équipe Novade sera en mesure de s’adapter rapidement à vos besoins, de la conception à la livraison, jusqu’à la maintenance sur site.

EBOOK : SUIVI DE CHANTIER

Découvrez dès maintenant des solutions pour gagner du temps, sans perdre en qualité sur vos chantiers