@Toufmade
Je pense qu'on peut trouver un terrain d'entente ici. Plus tu pars dans un cadre théorique et contrôlé, plus tes statistiques colleront à la réalité et on sera effectivement sur "un outil qui te permet de décrire la réalité à travers des données".
Dans ton exemple de vérification qu'un événement aléatoire suit une loi de probabilité, tu es dans un environnement où les variables sont maîtrisées, les conditions reproductibles, et les biais minimisés par le protocole expérimental lui-même.
Mais il faut reconnaître qu'il existe un continuum. Plus tu plonges dans un environnement moins contrôlé... et surtout quand tu sors du laboratoire pour entrer dans le monde réel avec ses milliers de variables non maîtrisées. Plus ton framing devient une clef de lecture déterminante, et ta "vérité statistique" prend inévitablement une coloration subjective.Quand il s'agit ensuite de comportement humain, là on explose les compteurs de complexité... mais pas que.
Même dans des domaines qui semblent objectifs, le framing peut tout changer. Prends l'exemple des données de logistique d'un port industriel : tu peux avoir un modèle en apparence "neutre" qui décrit une "réalité opérationnelle", mais qui s'avère être une photographie profondément erronée parce qu'il manque un facteur clef (disons, l'impact des marées sur certaines infrastructures) ou que la pondération des facteurs pris en compte est mauvaise (par exemple, sous-estimer l'effet des congés annuels sur la disponibilité des grues).
On l'a observé plusieurs fois dans les modélisations du GIEC, d'ailleurs. Des modèles climatiques extrêmement sophistiqués ont dû être réajustés non pas parce que les maths étaient fausses, mais parce que certains phénomènes avaient été mal pondérés ou carrément omis dans les premières versions : les rétroactions des nuages, la fonte du pergélisol, les cycles de l'azote océanique, etc. Les statistiques étaient "vraies" dans le cadre défini, mais le cadre lui-même était incomplet.
Donc oui, les stats sont un outil de description de la réalité. Mais la question devient : quelle partie de la réalité décides-tu de mesurer, et comment ? Et c'est là que le choix humain... donc la subjectivité... refait surface, même dans les sciences dures.
Citation :
Sinon, il y a plusieurs choses qui interpellent pas mal je trouve. À une période qui remonte maintenant au siècle dernier, mes tempes n’étaient pas poivre et sel et en cas de doute sur un sujet on allait à la médiathèque du coin choper les bouquins qui traitaient du sujet. C’était lent et non exhaustif mais l’info était fiable.
Je comprends le sentiment, mais je pense qu'il faut nuancer. L'information n'était pas intrinsèquement plus ou moins fiable qu'aujourd'hui. Les critères de fiabilité étaient simplement différents, et surtout, ils étaient moins visibles, donc moins questionnés.
Les bouquins que tu trouvais à la médiathèque n'étaient probablement pas toujours récents, donc ils véhiculaient potentiellement des erreurs qui avaient depuis été corrigées par la recherche. Ils étaient souvent issus de publications populaires vulgarisant des théories en vogue à un moment donné – pas forcément les théories les plus robustes, juste les plus médiatisées. Et ils découlaient majoritairement de productions scientifiques françaises ou traduites, donc ils ne reflétaient pas nécessairement l'état de la recherche au-delà de la barrière de la langue. Un chercheur japonais ou brésilien pouvait avoir publié quelque chose de fondamental, mais si ça n'avait pas traversé l'Atlantique et été traduit, ça n'existait tout simplement pas pour toi.
Ce qui a changé, ce n'est pas tant la fiabilité objective de l'information, mais l'illusion de consensus qu'offrait le filtre éditorial. Un livre publié, c'était déjà passé par plusieurs gatekeepers (éditeur, comité de lecture, distribution en bibliothèque), ce qui créait un sentiment de légitimité automatique. Aujourd'hui, cette légitimité est éclatée, décentralisée, et donc elle devient visible et contestable. Ce qui est déstabilisant, mais pas nécessairement plus trompeur.
Citation :
u on demandait à Rafiki : le grand-père ou la grand-mère, le prof de judo, le voisin avec qui on s’entend depuis des années... Et on apprenait comme ça. Non pas que je cherche à faire l’éloge nostalgique du "bon vieux temps", ça avait ses bons et mauvais côtés, c’était simplement différent.
Exactement. C'est ce qu'on appelle un leader d'opinion en sociologie. On se tourne vers ceux et celles qu'on estime être des individus experts des sujets qui nous intéressent ou nous tracassent. Mais cette autorité qu'on leur prête est profondément subjective.
Tu fais confiance à ton grand-père parce qu'il a vécu longtemps (biais d'autorité lié à l'âge), à ton prof de judo parce qu'il incarne une discipline qui t'impressionne (biais d'autorité lié au statut), au voisin parce que vous partagez une histoire commune (biais de familiarité et de réciprocité). Mais rien ne garantit que ces personnes aient une connaissance objective du sujet en question. Ton grand-père peut te raconter des conneries monumentales sur la santé parce qu'il répète ce qu'on disait dans les années 60. Ton prof de judo peut avoir des opinions politiques complètement pétées. Le voisin peut être un conspiro de première.
Ce système fonctionnait... et fonctionne encore dans certains contextes... mais il reposait sur une délégation de confiance qui n'était jamais vraiment auditée. On faisait confiance parce qu'on n'avait pas d'alternative facilement accessible, et parce que remettre en question ces figures d'autorité aurait fragilisé le tissu social local.
Citation :
On a ensuite eu l’essor de différentes plateformes où tout le monde peut donner son avis sur tout, et où on n’a pas besoin de se montrer vulnérable face à nos proches pour demander des trucs du style : "Je crois que je suis en train de vivre telle situation délicate, que faire ?". À la place on a des topics Reddit dont j’exagère les traits, dans le genre "Mon mec / ma meuf a fait / n’a pas fait telle chose. Est-ce un pervers narcissique / une manipulatrice ?" et des inconnus de répondre "Ouais. Gros red flag de ouf. Sauve-toi vite !".
Grave. Et là on bascule dans ce que le psychologue danois Svend Brinkmann appelle la société de l'expérience. Si ça t'intéresse, il a écrit un bouquin excellent sur le sujet :
The Experience Society: Life Beyond Subjectivity.
On assiste à une disparition progressive de la figure de l'expert au profit du conseil de pairs et de la similitude de vécu. On ne cherche plus quelqu'un qui sait, on cherche quelqu'un qui a vécu la même chose. L'expérience subjective devient la seule monnaie d'échange valable. Un forum Reddit où 200 personnes racontent leur rupture amoureuse est perçu comme ayant autant voire davantage de valeur qu'une publication scientifique en psychologie relationnelle.
Brinkmann argumente que cette dérive vers la subjectivité généralisée limite notre capacité à avoir des discussions collectives constructives et à maintenir une cohésion sociale. Il défend l'idée qu'on doit reconquérir une forme de réalité partagée et objective si on veut pouvoir affronter les grands défis de notre époque : climat, inégalités, crises sanitaires... sans se noyer dans un relativisme paralysant où chacun a "sa vérité".
Le paradoxe, c'est que cette évolution part d'une intention légitime : démocratiser la parole, briser les monopoles de l'expertise, donner la voix aux concernés.
Citation :
Maintenant, on se fait même plus chier à ouvrir des bouquins ou parler à des vrais gens, qu’on les connaisse ou pas. On demande à l’IA et on prend la réponse pour argent comptant
Le vrai problème avec les IA génératives actuelles, c'est qu'elles sont conçues pour te plaire. Elles sont optimisées pour la satisfaction utilisateur, pas pour la vérité. Elles vont te donner une réponse qui semble convaincante, cohérente, bien formulée... mais qui peut être factuellement fausse, biaisée, ou incomplète.
Mais si on dépasse cet écueil, l'IA est actuellement une manière exceptionnelle de trouver et de hiérarchiser l'information. Les LLM modernes intègrent un système d'étiquetage des sources qui hiérarchise la fiabilité : articles scientifiques avec comité de pairs et textes officiels en haut, puis Wikipédia, puis presse vérifiée. Ce n'est pas parfait, mais c'est déjà un progrès par rapport à l'époque où ton accès au savoir dépendait de ce que ta médiathèque avait décidé d'acheter.
Le vrai enjeu, c'est l'éducation à l'usage : apprendre quand l'IA est pertinente et quand il faut absolument un expert humain. Panda aurait dû appeler le 15, pas demander à une IA. Point barre. Le fait qu'il ait eu ce réflexe montre qu'on a collectivement échoué à transmettre cette hiérarchie de pertinence dans l'usage des outils numériques.
Cela dit, il faut rester lucide sur les limites actuelles. Les LLM sont entraînés sur des corpus qui privilégient certaines sources : publications scientifiques, Wikipédia, presse établie... mais ce processus reste largement opaque. On ne sait pas précisément quel poids est accordé à une revue à comité de pairs versus un article de blog bien écrit. Il n'y a pas de "système de vérification" actif : c'est du pattern matching statistique, pas une bibliothèque avec validation humaine systématique. Le RLHF peut indirectement favoriser certaines sources, mais en introduisant aussi les biais des évaluateurs. Bref, c'est mieux qu'un algorithme YouTube qui optimise pour le temps de visionnage, mais on est loin d'un système de curation intellectuelle rigoureux et transparent. D'où l'importance cruciale de l'éducation à l'usage critique de ces outils.