La question de l’intelligence artificielle est souvent abordée sous l’angle de ses capacités futures.

Pourtant, le véritable enjeu n’est peut-être pas technologique, mais anthropologique. À force de vouloir savoir si une machine peut devenir humaine, nous oublions de nous demander si nous savons encore définir ce qui fait l’Humanité. Cette réflexion s’adresse aux dirigeants, investisseurs et décideurs confrontés à la question du sens, de la responsabilité et du temps long.

La question revient souvent dans différents cercles professionnels, immobiliers ou technologiques auxquels j’ai la chance de participer, ou comme plus classiquement dans les Comités de Direction :

🔹 La mauvaise question

L’Intelligence Artificielle pourra-t-elle un jour ressentir des émotions ? La question est intéressante. Elle est même légitime. Mais elle n’est pas, selon moi, la plus structurante. La vraie question est plus dérangeante… simplement parce qu’elle nous concerne directement :

Sommes-nous encore capables, collectivement, de définir clairement ce qu’est l’Etre Humain… et ce qui ne l’est pas ?

Au regard des comportements de certains, de l’inadéquation de plus en plus fréquente à mon sens entre les qualités intrinsèques – en baisse prodigieuse – de tout être qui doit « faire l’Humain », et leurs places grandissantes dans le paysage médiatique, sociétal et social… la question devient pour la moins prégnante. En fait, l’Humain ne devient-il pas capable  – pour ne dire « attiré » – de faire ce que l’ IA n’oserait jamais ?

🔹 Ce que l’IA ne ressent pas — et ce que nous tolérons

L’IA ne ressent rien. Pour l’instant.

Commençons par un rappel simple, presque trivial : L’IA n’éprouve pas de sentiments. Elle ne doute pas. Elle ne souffre pas. Elle ne ressent ni la pression d’un comité d’investissement, ni la solitude d’une décision impopulaire. Elle calcule, modélise, optimise. Et elle le fait remarquablement bien ! Mais pendant que nous nous interrogeons sur la possibilité qu’une machine devienne humaine, une autre dynamique est à l’œuvre, plus silencieuse et insidieuse : La définition même de l’Humain devient progressivement floue, instable, négociable.

🔹 Les chercheurs ne cherchent pas une âme

Contrairement aux fantasmes, personne ne travaille aujourd’hui à créer une «âme artificielle». En revanche, des laboratoires académiques de premier plan explorent des briques fondamentales de ce que nous appelons l’humain.

Le Kempner Institute for the Study of Naturalk & Artificial Intelligence à Harvard, travaille sur les mécanismes communs de l’intelligence biologique et artificielle. Le Leverhume Center for the Future of Intelligence à Cambridge, réunit philosophes, neuroscientifiques et informaticiens pour analyser l’impact de l’IA sur notre définition de l’Humain.

À l’Université de Sussex, des équipes étudient la conscience comme un flux d’information et s’interrogent sur sa modélisation théorique. Des chercheurs comme Stanislas DEHAENE ou Christof KOCH explorent des modèles de conscience mesurable, sans affirmer qu’une machine soit consciente aujourd’hui, mais en posant des fondations conceptuelles solides. Dans le champ de l’Affective Computing, de nombreux laboratoires développent des systèmes capables d’adapter leurs réponses aux émotions humaines, sans les ressentir, mais en les intégrant dans l’interaction.

🔹 Mémoire, continuité, responsabilité

Il ne s’agit donc pas de science-fiction. Il s’agit de crédibilité, de continuité, de relation dans la durée. Mais pour nous centrer sur le domaine immobilier, cette logique ne nous est nullement familière !

Cela fait bien longtemps qu’un immeuble ne se réduit pas à un simple actif financier : C’est un usage, une temporalité, une mémoire d’occupants, une valeur qui se transforme. Tout (sérieux) investisseur vous le dira :

Un actif sans histoire est interchangeable. Un actif inscrit dans le temps devient stratégique. C’est précisément ce qui distingue la spéculation de l’investissement, et l’optimisation de court terme de la responsabilité patrimoniale.

Une IA sans continuité est un outil. Une IA dotée de mémoire et de trajectoire devient autre chose. La frontière n’est pas technologique. Elle est morale.

À partir de quand une entité dotée de mémoire, de préférences et de continuité cesse-t-elle d’être un simple outil ? L’histoire économique et juridique est claire : ce n’est jamais la technologie qui tranche en premier. C’est le trouble moral !

Nous avons déjà accordé une personnalité juridique à des entités abstraites, sans corps ni émotions. Nous savons donc que la frontière est fine, et … mouvante.

  • Et c’est ici que notre époque interroge

Nous vivons une période où toute frontière est rapidement suspecte, toute distinction immédiatement questionnée, tout désaccord parfois disqualifié moralement.

Même la frontière entre le Bien et le Mal n’a plus de positionnement immuable.

Depuis des années…  L’actualité nous démontre que sur des sujets existentiels, le Mal est même érigé au rang du Bien et vice-versa… et la majorité s’en accommode sans aucune résistance ; Tant que la Forme est parfaitement lustrée, peu importe du Fond

Je n’ai aucun problème avec les individus. J’ai en revanche une véritable et assumée réserve sur une époque qui confond par exemple ouverture, inclusion et effacement des repères.

Dans l’immobilier, un cadre flou produit toujours les mêmes effets : Responsabilités diluées –> décisions retardées –> risques mal assumés.

Pourquoi en irait-il autrement lorsqu’il s’agit de définir l’Humain ?

Le lien avec l’IA est direct

Si toute identité devient purement déclarative et toute limite illégitime, sur quelle base rationnelle refuserons-nous demain à une IA le droit de se dire consciente ? Si le ressenti déclaré devient l’unique boussole, la machine deviendra humaine par discours, avant même de l’être par expérience.

🔹 Conclusion : le risque inverse

Je ne crois pas que nous « injecterons » de l’humain dans l’intelligence artificielle. Je crois, moins naïvement — et plus dangereusement — que nous sommes en train d’édulcorer, de simplifier, voire de diluer ce que nous appelons encore l’Humain, pour le rendre compatible avec la machine. À force de réduire l’humain à des droits, des émotions modélisables, des visions binaires (celui qui est dans le camp du Bien et celui –  » Shame on you » ! – dans l’autre camp ; A force de rechercher et favoriser des comportements prédictibles… Nous oublions l’essentiel :

l’ Humain est aussi fait d’obligations, de limites, de responsabilités, d’arbitrages imparfaits et parfois inconfortables. Si nous ne sommes plus capables de définir clairement ce qui fonde cette singularité — non pas juridiquement, mais éthiquement et moralement — alors comment prétendre fixer une frontière claire entre l’homme et l’outil ?

Et surtout, qui décidera, demain, où cette frontière s’arrête ?

L’enjeu n’est donc pas de rendre l’IA plus humaine. L’enjeu est de ne pas rendre l’Humain plus mécanique ; encore plus moutonnier, encore plus obsédé par le respect du langage et de a pensée unique ; données imposées car un nombre d’autoproclamés « éclairés » l’ont ainsi décidé…  Dans l’immobilier comme ailleurs, on peut moderniser les usages, digitaliser les processus, optimiser les performances. Mais lorsque l’on fragilise les fondations — les valeurs, le sens, la responsabilité — ce n’est jamais la façade qui s’effondre en premier.

La contradiction (réfléchie, intelligente, nuancée) et même la nuance (donnée presque étrangère au schéma de pensée en vigueur) sont ce qui distingue l’Humain de la Machine…  Et ce camaïeux – n’en déplaise à certains – devra perdurer dans sa fonction de gros œuvre de l’Humain, au risque de vivre dans le monde lisse et établi de The Truman Show…

Aucune technologie, aussi sophistiquée soit-elle, ne pourra réparer un socle que nous aurions nous-mêmes choisi d’abandonner…

Car aucune intelligence artificielle ne menacera jamais l’Humanité autant que notre renoncement collectif à en assumer ses fondations…