top of page
Rechercher

I.A. générative appliquée à l'architecture: faut-il craindre son développement ?

  • Didier Maufras
  • il y a 4 jours
  • 9 min de lecture


Le constat :


Une immersion estivale dans le monde de l'I.A., à travers les livres et les articles qui lui sont consacrés, m'a fait prendre conscience que son développement frénétique, permis par des investissements financiers que seules quelques entreprises de la Tech peuvent se permettre puisqu’ils sont très déficitaires au début, laisse craindre à court terme d’atteindre un point de basculement vers leur remplacement pour beaucoup de métiers qui s'estimaient protégés, et que celui de l'architecture n'y échapperait pas à moyen terme.

Pourquoi ce constat, puisqu’à priori l'architecture d'auteur, à laquelle j'ai toujours cru pour se démarquer de la construction régie par les lois du marché capitaliste, se définit par la prise en compte supplémentaire de valeurs éthiques, culturelles, environnementales, personnelles. L'ensemble de ces valeurs qui fondent le droit d'auteur peut lui-même être remis en cause par le juge administratif, mais à partir du moment où il est individuel, il ne saurait être généré par des algorithmes mathématiques utilisables par tous.


J'ai connu la révolution informatique qu'a vécue la profession, avec l'informatique graphique puis internet, et ces outils me sont toujours apparus comme des progrès ayant dépoussiéré la production laborieuse des agences que j'ai fréquentées dans les années 70. Pour autant dans les années 90 j'ai continué à privilégier le Dessin Assisté par Ordinateur alors que la C.A.O. qui a suivi m'est apparu un outil plus difficile à imposer à tous mes collaborateurs. A mes yeux un dessin à la main était plus rapide et efficace pour partager clairement un concept, et cette économie de moyens avait une excellente empreinte environnementale !


Plus de vingt ans après la C.A.O. a évolué vers la maquette BIM (pour Building Information Modeling, ou Modélisation des Informations du Bâtiment en français), un concept plus global de "Création Assistée par Ordinateur" qui est une maquette 3D intelligente et collaborative, contenant non seulement la géométrie d’un bâtiment, mais aussi toutes les informations techniques, économiques et environnementales qui le concernent. En 2014 le gouvernement français lance le Plan Transition Numérique dans le Bâtiment (PTNB), qui officialise la volonté d’intégrer le BIM dans les marchés publics, et depuis 2017 le BIM est de plus en plus exigé dans les appels d’offres publics et les grands chantiers.


Cette utilisation du BIM a souvent généré une architecture très reconnaissable de géométries cubiques aux façades réticulées par un carroyage de fenêtres identiques, version contemporaine des façades des grands ensembles de la reconstruction d'après guerre. On est très loin de l'architecture d'auteur qui a parcouru tout le XX° siècle.


caractéristique : le village olympique de Saint Denis.
caractéristique : le village olympique de Saint Denis.

Cette image aérienne illustre à mes yeux, sans besoin de l'analyser longuement, le malentendu abyssal entre la pauvreté intellectuelle et artistique de cet îlot urbain et le discours du maître d'ouvrage SOLIDEO qui en fait l'apologie (à lire dans le Figaro du 12/1/2024 )


Est ce que la raison de cet appauvrissement culturel est dû à la vassalisation des architectes dans le cadre du BIM comme ChatGPT 5 en pointe le risque lui-même quand je l'ai interrogé quels sont les dangers du B.I.M. pour les architectes ?  : Voici le tableau récapitulatif Avantages / Inconvénients du BIM pour les architectes :

Aspect

Avantages

Inconvénients / Dangers

Collaboration

Meilleure coordination avec les autres intervenants, moins de conflits sur chantier

Risque de perte de contrôle sur la conception, interventions non validées par l’architecte

Qualité et précision

Modèle 3D précis, détection des conflits techniques avant chantier

Responsabilité accrue en cas d’erreur (données tracées et horodatées)

Cycle de vie du bâtiment

Suivi possible de la conception à l’exploitation

Obligation de fournir plus d’informations dès la conception, surcharge non rémunérée

Outils numériques

Visualisation immersive pour le client, rendu réaliste

Coût élevé des logiciels, courbe d’apprentissage importante, dépendance aux éditeurs

Créativité

Possibilité d’expérimenter facilement différentes options de conception

Standardisation via bibliothèques d’objets fabricants, perte d’identité architecturale

Marchés

Accès facilité aux appels d’offres publics exigeant le BIM

Architectes non formés au BIM risquent l’exclusion de certains marchés

Mais des architectes aussi talentueux que Zaha Hadid ou Frank Gehry ont été amenés à utiliser le BIM sans perdre leur créativité. Alors l'IA générative promise pour les artistes serait-elle une solution pour aider les architectes refusant cette vassalisation et cette servitude économique pour continuer leur parcours singulier ?




L'enquête :


Mon point de départ a été un constat personnel : je ne connaissais rien au fonctionnement de l'IA. Savoir manier un ordinateur, oui, maîtriser les fondements mathématiques essentiels pour la programmation et le développement d’algorithmes, non, et pourtant j'ai fait avant les Beaux Arts, une école scientifique, à l'époque des cartes perforées cependant ...

Or l'IA c’est avant tout des maths et plusieurs étapes de programmations.


Car après avoir lu sur les promesses et les dangers de l'IA l'ouvrage de Luc Ferry paru aux Éditions de l'Observatoire en janvier 2025 "IA, grand remplacement ou complémentarité? " qui offre un panorama des principaux acteurs de cette révolution technologique et de l'ensemble des enjeux sociétaux qu'elle pose, tout en poussant l'effort de vulgarisation à son paroxysme qui est le délire du post-humanisme, c'est-à-dire se délester de son corps mortel pour accéder à une immortalité de notre mémoire numérique... je suis revenu à une question plus fondamentale : l'IA comment ça marche ?


Sans grande surprise, j'ai trouvé un livre avec ce titre, sous-titré Entre sorcellerie et science. L'auteur est Ronald T. Kneusel, son livre date de 2024.

Ronald T. Kneusel est titulaire d’un PhD en machine learning/deep learning de l’Université du Colorado à Boulder (2016) et d’un Master en physique de la Michigan State University Il travaille depuis les années 2000 dans l’industrie, accumulant plus de 20 ans d’expérience en machine learning, notamment dans le domaine des systèmes de deep learning, l’imagerie médicale et les appareils médicaux. Il est actuellement Senior Data Scientist chez L3Harris Technologies, une entreprise spécialisée sur ces technologies.

Ronald T. Kneusel est un auteur prolifique, spécialisé dans la vulgarisation et l’enseignement pratique de l’IA, du deep learning, et des mathématiques pour l’informatique.


Son profil d'enseignant m'avait donc convaincu d'avoir fait le bon choix…


Effectivement les deux premiers chapitres se lisent facilement, mais les suivants sont plus arides. L'intérêt grandit cependant à chaque relecture, et au final la lecture du livre de Kneusel a la vertu de se terminer sur cette métaphore du feu: l'IA n'est pas magique, même si les capacités émergentes des LLM peuvent paraître surnaturelles et impénétrables. Le feu aussi était magique autrefois, mais nos ancêtres ont su le comprendre, le contrôler et l'exploiter.

Clairement, si on veut se rassurer sur la prévision qu'une IA forte dotée d'une conscience comme le superordinateur HAL9000 dans 2001 l’Odyssée de l'Espace (imaginé en 1968!) ne verra pas le jour avant très longtemps, ce livre de démystification vaut l'effort d'être lu et relu.


Un bref résumé des chapitres:


  • L’ouvrage clarifie les distinctions entre intelligence artificielle (IA), machine learning et deep learning, permettant de comprendre comment ces notions s’articulent historiquement et fonctionnent ensemble. On parle d'IA depuis 1956, mais le point de bascule intervient en 2012.

  • Kneusel retrace l'évolution de l'IA, de l'IA symbolique (systèmes basés sur les règles) jusqu’à l'émergence en 2012 des réseaux de neurones, marquant un tournant décisif dans les capacités des machines à apprendre. Et depuis 2021 la puissance des nouveaux processeurs combinée à la collecte toujours plus importante des data, supposant des investissements colossaux, font que la performance, et leurs prévisions, des applications changent chaque mois.

  • Le livre explique comment fonctionnent les réseaux neuronaux, comment ils sont entraînés, et comment des unités de calcul élémentaires peuvent, mises bout à bout, générer des comportements complexes.

  • Il approfondit trois technologies phares :

    • CNN (Convolutional Neural Networks)

    • GAN (Generative Adversarial Networks)

    • LLM (Large Language Models), tels que ChatGPT et Bard

  • Kneusel discute des capacités émergentes des LLM — comme la théorie de l’esprit rudimentaire — et explique comment ces propriétés deviennent plus marquées avec l’augmentation du nombre de paramètres du modèle.

  • Pour finir Il aborde les limitations des LLM, tels que les hallucinations (erreurs factuelles) et propose une mise en perspective en soulignant les enjeux éthiques et pratiques


Quitte à me répéter, ce qui ressort de la lecture de ce livre sont bien les progrès fulgurants d’une «intelligence» qui a pour nature de «deviner» à chaque étape d’une recherche ou d’un raisonnement (consistant à reconnaître une image ou à la produire ou à formuler une idée…) l’étape suivante la plus pertinente pour parvenir à un résultat qui le serait, ou plutôt qui le sera avec une marge d’erreur minimale.


La fulgurance des progrès de cette «intelligence» masque pour l’instant son défaut congénital, la fabrication de son algorithme et son apprentissage.


A cet égard, le dernier paragraphe du chapitre 2 est éloquent :

L‘utilisation des réseaux sociaux, le commerce électronique et le simple fait de se déplacer avec un smartphone sur soi génèrent des données qui sont toutes capturées et utilisées pour cet apprentissage. Une phrase que j’entends souvent dans mon travail est celle-ci : « avant nous manquions de données, maintenant nous sommes noyés sous leur volume ». Sans elles, l’apprentissage profond ne peut pas fonctionner, mais avec de grands ensembles de données des choses impressionnantes peuvent se produire. [choses impressionnantes = résultants aberrants ou inexplicables]. Confondre ces résultats avec l’émergence d’une IA générative (forte) est à mes yeux une illusion, heureusement partagée.


Néanmoins les investissements massifs nécessaires entre autres à la collecte de ces données et à leur traitement pour l’apprentissage laissent penser que le progrès scientifique n’est pas la seule motivation. Comme l’écrit Kneusel, si les réseaux sociaux sont gratuits, c’est parce ce que c’est nous, avec les données que nous générons, qui sommes le produit.




Ma conclusion, provisoire (1) :


Comment le point de basculement dans le remplacement des architectes par l'IA générative peut survenir prochainement ?


Par ignorance ou naïveté parfois, et plus souvent par nécessité de survie, les architectes continueront à "offrir" leurs créations à ces maquettes numériques "collaboratives" qui alimenteront l'entraînement des API génératives qui se développent dans les métiers de la construction. Car ce n’est pas l’utilisation des réseaux sociaux ou la production de sites internet par les architectes qui peuvent représenter un volume suffisant de data pour entraîner des machines capables de générer des esquisses de plans.


Derrière les promesses de l'IA générative pour la conception, derrière le jargon d'initiés et les affirmations tautologiques qui l'entourent, je fais le parallèle avec les robots conversationnels (LLM) dont les algorithmes proposent des réponses "médianes" basées sur le traitement probabiliste d'un volume de données de plus en plus énorme. Il n'y a pas de sens critique a priori, seulement le résultat du biais initial avec lequel ces algorithmes ont été écrits. Rien à voir avec une conversation entre plusieurs êtres humains qui peut déboucher sur une réponse intelligente à des opinions qui seraient contradictoires. 


Que ce soit en site urbain ou naturel, la démarche première d'un architecte en charge d'un programme de taille quelconque est d'analyser ce site et de déceler le "genius loci". L'analyse du programme et la hiérarchisation de ses éléments ne peuvent se faire que sous son éclairage. Quand cette symbiose est mise en place, on peut espérer que l'acte d'architecture sera au rendez-vous. Dans le cas contraire une construction nouvelle s'ajoutera au chaos initial ou dégradera l'harmonie existante.


Cette étape primordiale, qui est de l'ordre de la conscience et de l'affect, ne peut faire l'objet d'une donnée d'entrée dans l'algorithme d'une API. Au contraire elle sera remplacée dans celui-ci par une collection d'enjeux environnementaux et culturels "faisant consensus" dont la maquette BIM intégrera la prise en compte préalablement à l’acte architectural qui sera lui cantonnée à la mise en forme du programme.

La conséquence sur le long terme de la répétition de ce schéma fournira les données d’apprentissage à l’API elle-même en constant développement (2).

Alors on peut craindre que l’intervention dans sa forme actuelle de l’acteur "architecte" puisse être éliminée, puisque source d’un biais subjectif et surtout d'une incapacité humaine à produire plusieurs variantes aussi rapidement qu'une machine.


Enfin, c'est déjà très compliqué de protéger son droit d'auteur quand on ne participe pas à ces plateformes numériques, alors comment le faire dans une maquette collaborative dans laquelle chacun peut revendiquer la paternité de l’œuvre finale.


Donc ne nous rendons pas complices par naïveté de notre propre disparition, et soyons vigilants avec l’IA en architecture.



(1) provisoire, parce que le développement de l'IA pose d'évidentes questions sur son avenir en raisonnement du coût de son financement (investissements mondiaux en 2024 de 252 milliards de dollars, en croissance annuelle de 30%) sans que les économies et les revenus générés fassent l'objet de statistiques précises. Ce déséquilibre observé depuis le début s'accompagnera inévitablement de faillites d'entreprises, d'une plus grande régulation des états, et de possibles revirements stratégiques.


(2) une agence française ARCHITECTURE STUDIO apparaît avoir anticipé les différents risques évoqués en développant en interne une API basée uniquement sur ses propres data (à lire dans le n°94 de PASSION ARCHITECTURE du 4° trimestre 2025, revue gratuite de l'UNSFA): Architecture Studio n'attend pas de l'IA qu'elle produise une solution toute faite, mais l'utilise pour produire davantage de variantes, croiser des hypothèses et confronter les intuitions initiales à des résultats tangibles. L'lA densifie et met à l'épreuve le travail de l'architecte, permettant ainsi une exploration plus approfondie des possibilités de conception. L'objectif est de proposer aux architectes de l'agence des solutions spatiales respectant des contraintes géométriques, réglementaires et fonctionnelles pré définies, offrant ainsi la possibilité de tester diverses variantes dans un cadre précis, tout en intégrant des aspects esthétiques propres à l'agence. L'apprentissage automatique d'une IA à partir de leurs propres choix, y compris esthétiques, est très intéressant, même s'il ne peut être exclusif. L'invention de nouvelles formes, concepts et pratiques reste de la responsabilité des architectes.

Une démarche intelligente susceptible d'échapper à l'emprise des majors de l'IA sur la création architecturale.



Didier Maufras

novembre 2025


 
 
 

Commentaires


    bottom of page