Builder.ai : le scandale de la « fausse IA » à 1,5 milliard de dollars enfin dévoilé

Builder.ai : le scandale de la « fausse IA » à 1,5 milliard de dollars enfin dévoilé

fc50682e-dc85-4c21-9598-9ce5e95b6014 Builder.ai : le scandale de la "fausse IA" à 1,5 milliard de dollars enfin dévoilé

L’intelligence artificielle fait rêver. Elle promet automatisation, gains de productivité et économies substantielles. Mais parfois, derrière l’illusion de la haute technologie se cache une toute autre réalité. C’est ce qu’a révélé l’affaire explosive de Builder.ai, une start-up britannique autrefois valorisée à 1,5 milliard de dollars, qui prétendait révolutionner la création d’applications grâce à l’IA. En réalité, l’entreprise reposait sur le travail manuel de 700 développeurs basés en Inde, dissimulés derrière un assistant virtuel soi-disant intelligent.

Ce scandale met en lumière une pratique de plus en plus fréquente dans le secteur technologique : l’AI washing – c’est-à-dire attribuer à une intelligence artificielle des tâches réalisées par des humains, dans une stratégie marketing trompeuse.

Un assistant IA… alimenté par des humains

Une promesse trop belle pour être vraie

Créée par Sachin Dev Duggal, Builder.ai s’était positionnée comme une plateforme capable de créer des applications sans coder, simplement en décrivant ses besoins à un assistant virtuel nommé Natasha. Ce dernier était présenté comme une IA avancée, capable de générer des applications personnalisées en quelques clics. Le concept avait séduit : l’entreprise avait levé plus de 480 millions de dollars, avec le soutien d’investisseurs majeurs comme Microsoft ou le Qatar Investment Authority.

Mais selon plusieurs enquêtes, cette prétendue intelligence artificielle était en réalité une façade sophistiquée. Le code était généré manuellement par des centaines d’ingénieurs en Inde, qui travaillaient dans l’ombre, souvent sous-payés, pour répondre aux demandes des clients en temps réel. Les résultats, ensuite, étaient présentés comme le fruit d’une technologie révolutionnaire.

À Lire aussi  Fidji Simo : un parcours d'exception de Sète à la Silicon Valley

Un modèle économique basé sur la supercherie

La plateforme Builder.ai fonctionnait avec une interface utilisateur automatisée, certes, mais tout le processus de développement était externalisé et humain. Cela permettait à l’entreprise de masquer ses véritables opérations tout en gonflant artificiellement sa valorisation.

Selon un ancien employé cité dans une enquête du Wall Street Journal, « tout était manuel, mais habillé d’un discours technologique pour attirer les investisseurs ». Ce fonctionnement aurait perduré pendant près de huit ans, trompant clients, collaborateurs et partenaires.

Effondrement d’un géant : révélations et conséquences

Des prévisions de revenus truquées

Tout a basculé lorsque le fonds Viola Credit, l’un des investisseurs de Builder.ai, a récupéré 37 millions de dollars sur son investissement initial de 50 millions, après avoir découvert des anomalies majeures dans les comptes. L’entreprise avait annoncé 220 millions de dollars de revenus prévisionnels pour 2024, alors qu’un audit indépendant a révélé que les revenus réels ne dépassaient pas 50 millions. Un écart de +300 %, révélateur d’une manipulation délibérée.

Gel des fonds et faillite déclarée

Face à ces révélations, 5 millions de dollars restants en liquidités ont été gelés, empêchant le paiement des salaires. Le nouveau président Manpreet Ratia, nommé en février après la démission du précédent dirigeant, a rapidement déposé le bilan. Dans un communiqué publié sur LinkedIn, il a reconnu que les décisions prises antérieurement avaient « mené à une impasse irréversible ».

À Lire aussi  L'intelligence artificielle consciente : simple fantasme ou avenir plausible ?

Aujourd’hui, Builder.ai est en procédure d’insolvabilité au Royaume-Uni. Un administrateur judiciaire a été désigné pour tenter de sauver ce qui peut l’être. En parallèle, une enquête fédérale est ouverte aux États-Unis, où les procureurs de New York ont demandé les états financiers de la société ainsi que la liste de ses clients.

Des dettes colossales et des poursuites en cascade

Factures impayées et licenciements massifs

L’entreprise doit encore 85 millions de dollars à Amazon et 30 millions à Microsoft pour l’utilisation de leurs services cloud. Près de 1.000 employés ont été licenciés, et la fameuse plateforme Natasha a été abandonnée. Quant au site web de Builder.ai, il est désormais hors ligne, signalant la fin d’une illusion numérique.

Des accusations de blanchiment d’argent en Inde

Le fondateur Sachin Dev Duggal, qui avait pourtant gardé un siège au conseil d’administration, est lui aussi dans le viseur des autorités. Il fait l’objet d’une enquête pour blanchiment d’argent en Inde, en lien avec des transactions douteuses impliquant le groupe Videocon.

Une pratique de plus en plus répandue : l’AI washing

Builder.ai n’est pas un cas isolé

Le cas Builder.ai n’est que la partie émergée de l’iceberg. D’autres géants technologiques ont été récemment épinglés pour des pratiques similaires. Amazon, par exemple, avec son service « Just Walk Out », vanté comme un système automatisé pour faire ses courses sans passer par une caisse, employait en réalité plus de 1.000 opérateurs humains en Inde pour surveiller et valider les transactions.

À Lire aussi  IA et publicité générée : une fausse pub pour Porsche, un vrai danger pour Hollywood

Des services prétendument automatisés… mais manuels

Il en va de même dans d’autres secteurs. Plusieurs plateformes de comptabilité soi-disant automatisées ont été prises en défaut : des employés aux Philippines ou en Inde s’occupaient manuellement des tâches présentées comme traitées par IA. Ces pratiques soulèvent de réelles questions sur la transparence, l’éthique des entreprises, et la vérification des technologies vendues comme « intelligentes ».

Quelles leçons tirer du scandale Builder.ai ?

  1. Les investisseurs doivent redoubler de vigilance, en exigeant des audits techniques rigoureux.
  2. Les régulateurs doivent encadrer l’utilisation du terme « IA », aujourd’hui galvaudé et instrumentalisé à des fins marketing.
  3. Les consommateurs comme les professionnels doivent apprendre à distinguer les vraies solutions d’intelligence artificielle des fausses promesses habillées de buzzwords.

Share this content:

Laisser un commentaire