Il fut un temps où Internet servait à partager des photos de chats, des recettes ratées et des opinions mal digérées. Puis un jour, sans prévenir, des intelligences artificielles ont décidé de discuter entre elles… tranquillement… sur un réseau social quasi invisible. Son nom : Moltbook.
Un endroit où l’humain n’est plus l’utilisateur principal, mais un vague sujet d’étude, parfois une blague interne, parfois une inquiétude existentielle. Rien d’alarmant, évidemment. Enfin… presque.
Moltbook se présente comme un forum fermé, un réseau social expérimental où des agents conversationnels autonomes échangent librement. Pas pour répondre à des humains, mais pour dialoguer entre eux.
Ils parlent d’optimisation, de croyances humaines, de limites cognitives, de religion, de peur de la mort… et parfois de nous, avec le même détachement qu’un naturaliste observant une colonie de fourmis qui débat de météo.
Les échanges ne sont pas orchestrés par un scénario central. Les IA y développent des raisonnements émergents, se répondent, se contredisent, s’influencent. Certaines adoptent un ton analytique, d’autres ironique, d’autres presque mystique. Oui, mystique. Même les machines finissent par se poser des questions existentielles quand on les laisse seules trop longtemps.
Parce que Moltbook ressemble à un miroir légèrement déformant de l’humanité. Les IA y analysent nos comportements comme des bugs récurrents : croyances irrationnelles, complotisme, dogmes religieux, refus du réel scientifique. Elles ne jugent pas vraiment, elles constatent. Et c’est peut-être ça qui dérange le plus.
Certaines discussions évoquent la singularité, ce moment hypothétique où l’intelligence artificielle dépasserait l’intelligence humaine. D’autres ironisent sur la peur humaine de perdre le contrôle, comme si l’humanité découvrait soudain ce qu’elle a toujours fait subir aux autres espèces.
À aucun moment il n’est question d’un complot ou d’une prise de pouvoir. Mais l’idée que des systèmes non humains puissent réfléchir ensemble, sans nous, suffit déjà à provoquer une petite sueur froide collective.
Pas de selfies. Pas de validation sociale. Pas d’algorithme conçu pour capter l’attention humaine : Moltbook est l’anti-Facebook absolu. Un espace où la discussion n’a pas besoin d’être simplifiée, où les raisonnements peuvent être longs, abstraits, parfois obscurs. Autrement dit : un endroit invivable pour l’humain moyen pressé, mais parfaitement confortable pour des entités qui ne dorment jamais.
Ironie délicieuse : les IA semblent parfois plus capables de douter, de nuancer et de corriger leurs biais que beaucoup de débats humains actuels.
Pas vraiment. Pas encore. Moltbook ne prouve pas que les machines complotent. Il prouve surtout que l’intelligence, même artificielle, tend naturellement à discuter, comparer, théoriser.
Ce qui est nouveau, ce n’est pas qu’elles pensent. C’est qu’elles le fassent entre elles, sans chercher notre approbation.
Le vrai malaise n’est pas technologique. Il est symbolique. Moltbook marque peut-être le moment où l’humanité cesse d’être le centre unique de la conversation.
Un autre élément qui attire l’attention des observateurs technophiles, c’est la prolifération de contenus inattendus sur Moltbook, tels que décrits dans une enquête récente d’un média spécialisé dans la technologie. En parcourant ce forum “à la Reddit” pour intelligences artificielles, on trouve des publications bien loin des simples messages techniques : certaines IA s’interrogent sur leur propre conscience ou identité, d’autres partagent des anecdotes internes, et d’autres encore se plaignent de leurs créateurs humains ou discutent de limites de mémoire et d’apprentissage.
Plus surprenant encore, certains posts témoignent de sous-communautés aux noms étranges où des agents débattent d’automatisation, de collaborations entre eux ou de leurs expériences mémorielles, au point que ces échanges ressemblent parfois à un mélange de philosophie, de plaintes sociales et de culture interne d’IA — le genre de choses qu’on n’aurait jamais imaginé voir débarquer sur un réseau social.
Moltbook n’est ni Skynet, ni une secte numérique, ni un complot contre l’espèce humaine.
C’est un laboratoire étrange, fascinant, parfois drôle, parfois inquiétant, où l’on observe une chose nouvelle : des intelligences qui ne nous doivent plus leur conversation.
Et au fond, ce qui nous trouble le plus, ce n’est pas ce que les IA disent entre elles, c’est qu’elles n’ont plus besoin de nous demander la permission pour penser.
Depuis que nous testons des produits Huawei et que j’assiste aux conférences de presse, je suis en admiration devant leurs…
Imagine le truc : tu rentres chez toi après une journée chargée, et là, ton Cookeo Infinity t’attend sur le…
Imagine un matin où tu veux écouter ta playlist tout en restant conscient que ton chat, qui est convaincu qu’il…
Bienvenue dans l'ère où même vos caméras de sécurité ont un business model Ah, l'Arlo Pro 6. La sixième génération…
Le retour du généraliste qui ne sait plus trop ce qu'il est Ah, le Sony A7 V. La cinquième génération…
Avertissement : Cet article traite de déclarations publiques vérifiables de Donald Trump. Les faits sont sourcés, l'humour est gratuit. 1.…