Pour clarifier ma position : mes propos portaient sur les statistiques et l'évolution de nos modes d'information, pas sur une défense inconditionnelle des IA génératives. Je pense qu'il faut distinguer leurs capacités techniques de leurs implications sociales et éthiques, qui sont profondément problématiques.
Le problème fondamental des LLM comme source d'information, c'est qu'ils sont des médias commerciaux. Wikipédia, qui a été l'épicentre de l'apprentissage numérique avant l'ère des LLM, est le fruit d'un travail collectif non lucratif avec des processus de modération transparents et débattus publiquement. Les publications scientifiques, même avec leurs défauts, ne sont pas conçues pour maximiser l'engagement ou la satisfaction utilisateur.
Avec les IA génératives, comme le souligne Acwi, on cherche d'abord à nous plaire, puis à nous informer, le tout filtré par des systèmes experts opaques dont les règles morales et éthiques sont définies par des entreprises californiennes. On peut légitimement se demander si c'est une forme de colonialisme numérique que d'imposer au Vietnam, à l'Angola ou à n'importe quel pays une vision morale issue de la gauche libérale américaine dans un outil informationnel du quotidien. Wikipédia, par son nombre de contributeurs internationaux, n'a pas ce problème. Il y a parfois des affrontements sur le framing d'un événement, mais ces débats sont visibles et ne sont pas imposés de manière opaque par une entreprise privée.
Les biais de représentation des IA génératives visuelles sont documentés et sévères. Étudier les prompts et leurs résultats montre comment ces systèmes reproduisent systématiquement du sexisme (prompt "CEO" → homme blanc), du racisme (prompt "personne japonaise" → stéréotypes orientalisants), de l'hypersexualisation des femmes...
Les questions d'authenticité, de consentement et de désinformation sont tout aussi graves. On a vu l'interview deepfake de Schumacher exploitant une personne vulnérable, le robocall imitant Biden pour décourager des électeurs, les "auteurs" fictifs de Sports Illustrated, l'influenceuse virtuelle Aitana qui concurrence des créateurs humains, les mannequins qui vendent leur "likeness" sans contrôle sur son usage futur. Ces cas illustrent l'effondrement de la confiance dans les sources visuelles et textuelles, la manipulation politique facilitée, et la marchandisation de l'identité humaine.
Le problème du consentement est particulièrement aigu : comment une personne peut-elle donner son consentement éclairé à l'usage de son image ou de sa voix dans des contextes qu'elle ne peut pas anticiper ? Comment protéger le droit à l'image quand n'importe qui peut générer une version convaincante de vous ? La traçabilité et la transparence (étiquetage, watermarking) sont embryonnaires et facilement contournables.
Sur le plan économique, on assiste à une destruction massive d'emplois sans compensation. Comme l'ont été le métier à tisser ou la mécanisation de l'agriculture, les IA génératives bouleversent des secteurs entiers. Les métiers déjà en forte destruction incluent : saisie de données (95% de risque d'automation), transcription médicale (99% automatisée), graphistes informatiques (-33% d'offres d'emploi en 2025), rédacteurs et correcteurs (-28%), photographes (-28%), traduction standard, illustration stock, doublage, assistants juridiques (80% de risque d'automation d'ici 2026), caissiers (65% menacés d'ici 2025, avec 20 000 postes supprimés chez Walmart et Sam's Club).
D'autres sont gravement menacés à court terme : journalisme web, scénaristes juniors, montage vidéo, motion design, community management, copywriting SEO, rédacteurs marketing digital (projection de -50% d'ici 2030), et surtout la moitié de tous les emplois de bureau d'entrée de gamme dans les cinq ans selon le PDG d'Anthropic. En 2025, 77 999 emplois ont été éliminés dans la tech, soit 491 personnes perdant leur emploi à cause de l'IA chaque jour. L'industrie manufacturière devrait perdre 2 millions d'emplois d'ici 2030, et l'industrie du camionnage américaine 1,5 million.
Le Washington Post a récemment documenté comment cette disruption change radicalement l'insertion professionnelles des diplômes universitaires versus des métiers pas touchées par l'IA :
https://www.washingtonpost.com/business/2026/01/31/labor-market-gap-tr...
Ce qui m'inquiète le plus, c'est l'effet combiné de tous ces facteurs : des outils informationnels commerciaux et biaisés, une érosion de l'authenticité et de la confiance, une destruction d'emplois sans filet de sécurité, le tout déployé à une vitesse qui ne laisse aucun temps pour l'adaptation collective ou la régulation démocratique. Le cas de Panda est le symptôme d'un système qui nous rend dépendants d'outils dont nous ne maîtrisons ni la conception, ni les limites, ni les conséquences à long terme. Je pense qu'elles ont des capacités techniques remarquables qui peuvent être utiles dans certains contextes bien délimités. Mais leur déploiement actuel, sans mode d'emploi, sans régulation robuste, sans redistribution des gains, et avec une opacité totale sur leurs règles de fonctionnement, est profondément problématique.
Et je passe les questions d'énergie, de souverraineté et d'environnement pour pas faire chier tout le monde.