Voir les messages sans réponses | Voir les sujets actifs Nous sommes le Sam Nov 01, 2025 7:22 am



Répondre au sujet  [ 7 messages ] 
 L'Intelligence Artificielle 
Auteur Message
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message L'Intelligence Artificielle
Le chat il a pété! CHATGPT!


:lol: :mrgreen: :lol: :mrgreen: :lol: :mrgreen: :lol: :mrgreen:


Oh bon sang...! je ne m'en lasserai jamais de celle là (âme d'enfant inside) (les stupéfiants aussi)

Excusez moi je reprend mon souffle.

Bon voilà apparemment on va foutre de l'IA partout, catastrophe pour l'humanité qui va nous tirer vers le bas intellectuellement AMHA

mais puisqu'on y coupera pas voyons voir les quelques trucs ou ça peut être bien quand meme.

Première idée: plutôt que de faire un film pour rien tout en IA donc nul en tant qu'objet subjectif et sensuel (qui fait appel aux sens? Avec la gaule du matin je sais plus quel mot employer je veux celui la, lentement de bas en haut en faisant bien pression à la base du ... enfin ouais)

Donc je reprends, je suis très dissipé ce matin excusez moi.


Tu fais un film avec des effets spéciaux en dur à l'ancienne et tu peux appliquer une légère patine d'IA sur les trucs qui sont pas tout à fait crédibles, les trucs autrefois cachés par la fumée, le brouillard l'éclairage et autres subterfuges qu'on peut même garder car cest stylé mais avec l'IA maintenant on peut faire plus tu peux faire sortir ta créature du brouillard elle serait à la fois vivante et réaliste. Avec des petites touches subtiles ça peut être énorme, un vrai pas en avant pour les films fantastiques d'avant les années 90.

Même des trucs ratés cool comme le ED-209 de Robocop 2 tu peux le rendre top avec l'IA, elle l'incruste mieux dans la scène elle fluidifie un poil sa démarche.

J'ai une autre idée mais elle peut rapporter du pognon j'en dis pas plus pour l'instant je pense ça fait un bail qu'on aurait dû mettre des zones du fofo en privé pour faire chier les nombreux lecteurs qui passent de temps à autre nous reluquer mais qui ne nous méritent pas.

Je vous la mettrais dans un lien vers une page Word avec mot de passe ou un truc comme ca.

Et on va trouver des idées et poster des news ici.

Idéalement dans trois ans en premiere page du fofo on a des topics espace, science, IA, Métaphysique et tutti quantique e un hangar avec des robots qui construisent des drones lanceurs tracteurs de filets qui capturent les renégats qui ont ruiné l'ancien forum à la solde de Zuckerberg et Bolloré pour les noyer dans la guimauve ou la chatte de la femme à Maouin pour les plus honorables

Voilà maintenant repos vous pouvez fumer.

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Lun Déc 02, 2024 7:43 am
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message Merci Skynet
Bon je lache le morceau j'ai trouvé un mec qui avait eu la meme idée et qui en a fait une appli quoique il a utilisé des logiciels classiques avec l'IA je pense faire mieux

Pour la cueillette des champignons ça peut etre enorme

faut que l'IA ait accès à des données sur les forets ou tu veux chercher, quels types d'arbres, quel genre de terre et d'autres facteurs puis avec un acces a la meteo en direct hydrometrie toussa normalement tu dois pouvoir trouver vers quel jour voire heure les champis vont popper dans les bons coins

je suis deja la dessus, d'ailleurs on est pas loin d'une nouvelle poussée vers chez moi si le soleil reste un peu enfin y'a d'autres facteurs mais c'est l'IA qui m'a dit "y'a moyen" :twisted:


pour les coins de peche aussi

et plein d'autres trucs on en reparlera

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Mar Déc 03, 2024 10:26 am
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message Accélérationnisme
Ha ces chinois! Ils viennent de niquer les margoulins de la Silicon Valley en beauté :twisted:


Citation:
DeepSeek : la Chine a développé une IA aussi performante que ChatGPT pour 7 % du coût
Avec la troisième version de son grand modèle de langage, lancée en décembre, l’entreprise d’intelligence artificielle chinoise DeepSeek pourrait bien avoir battu en brèche l’idée que les meilleures IA requièrent des milliards de dollars et les puces les plus avancées. Pour seulement 5,6 millions, soit 7 % du coût du développement de ChatGPT, Pékin est parvenu à créer une IA comparable aux modèles américains.

La première semaine du second mandat de Trump a été marquée par l’annonce de nouveaux investissements majeurs dans le domaine de l’intelligence artificielle. À lui seul, le projet Stargate — une coentreprise formée par OpenAI, SoftBank, Oracle et MGX — devrait injecter 500 milliards d’ici 2029 dans des méga-campus accueillant des centres de données qui serviront à entraîner et faire tourner de nouveaux modèles d’IA.

En septembre, le co-fondateur et président d’Oracle, Larry Ellison, déclarait : « L’IA est une course de Formule 1. Tout le monde veut être premier dans un des domaines d’application de l’IA. À votre avis, combien faut-il pour entrer dans la course et créer un modèle d’IA compétitif ? 10 milliards ? 100 milliards ? Oui, 100 milliards et vous pouvez rejoindre la course. Peu d’entreprises, peu de pays peuvent entrer dans la course. Mais ça c’est plutôt bon pour nous ! »
Mais si la tendance montrée par la Chine se poursuit, l’industrie de la tech pourrait connaître un renversement du modèle économique avec une diminution des coûts fixes de développement des modèles et une augmentation des coûts marginaux liés à leur utilisation

https://legrandcontinent.eu/fr/2025/01/ ... 7-du-cout/



Citation:
DeepSeek, cette start-up chinoise qui fait mieux qu'OpenAI pour 96% moins cher

Qui a dit qu'il fallait dépenser des milliards pour faire de l'IA générative ? Le modèle DeepSeek-R1 atteint des performances comparables à celles du modèle o1 d'OpenAI pour les tâches de mathématiques, de code et de raisonnement. Pour soutenir la communauté, la start-up a mis en libre accès DeepSeek-R1-Zero, DeepSeek-R1 et six modèles denses distillés à partir de DeepSeek-R1, basés sur Llama et Qwen.

"Nous vivons dans une époque où une entreprise non américaine porte le flambeau de la mission originale d'OpenAI - une recherche véritablement ouverte qui donne du pouvoir à tous", s'exclame Jim Fan, senior research manager and lead of embodied AI au sein de Nvidia sur LinkedIn. Ce dernier fait référence à DeepSeek, une start-up chinoise qui a dévoilé cette semaine ses modèles de raisonnement de première génération, DeepSeek-R1-Zero et DeepSeek-R1.
Une publication sous licence MIT

Leur point fort ? Des performances équivalentes à o1-1217 d'OpenAI, mais pour beaucoup moins cher... et en open source aussi bien pour les chercheurs que les entreprises. "Afin de soutenir la communauté de recherche, nous mettons en open source DeepSeek-R1-Zero, DeepSeek-R1, et six modèles denses (1,5B, 7B, 8B, 14B, 32B, 70B) distillés à partir de DeepSeek-R1 basé sur Qwen et Llama", précise la start-up. Publié sous licence MIT, DeepSeek-R1 est donc libre de modification, d'ajustement et de commercialisation, contrairement à OpenAI et à son écosystème fermé.

Le coup de grâce ? DeepSeek n'est qu'une filiale de High-Flyer Capital Management, une société de gestion quantitative de fonds lancée initialement en 2015. Développer des modèles d'IA générative n'est donc pas à proprement parler son activité principale, mais un projet à côté porté par des salariés pour mettre à profit ses GPU lorsqu'ils ne sont pas utilisés.

Cette petite structure a donc développé ses modèles aux performances équivalentes à ceux d'OpenAI en ne disposant que de ressources très limitées, sans avoir eu à investir des centaines de milliards de dollars... ni même des centaines de millions. Le coût d'entraînement pour la famille R1 a été de moins de 6 millions de dollars, d'après ses responsables.
Un modèle qui intègre un entraînement en plusieurs étapes

L'entreprise indique qu'elle s'est basée sur DeepSeek-R1-Zero, un modèle entraîné avec de l'apprentissage par renforcement (RL) à grande échelle sans ajustement fin supervisé (SFT) en tant qu'étape préliminaire. Grâce au RL, il "démontre des capacités de raisonnement remarquables". Cependant, il rencontre des défis tels qu'une mauvaise lisibilité et des mélanges linguistiques. "Pour résoudre ces problèmes et améliorer encore les performances de raisonnement, nous introduisons DeepSeek-R1, qui intègre un entraînement en plusieurs étapes et des données de démarrage à froid avant le RL", indique la start-up.

Purement piloté par le RL, sans SFT, "cela rappelle AlphaZero - master Go, Shogi et les échecs à partir de zéro, sans imiter d'abord les coups des grands maîtres humains", commente Jim Fan. Il est intéressant de noter que le temps de réflexion du modèle augmente régulièrement au fur et à mesure de l'entraînement, ce qui n'est pas préprogrammé et est une propriété émergente.

"Notre objectif est d'explorer le potentiel des LLM pour développer des capacités de raisonnement sans aucune donnée supervisée, en nous concentrant sur leur auto-évolution à travers un processus purement RL", a déclaré l'équipe de DeepSeek. Notons que si le modèle DeepSeek R1 dispose d'une architecture de 671 milliards de paramètres et a été entraîné sur la base du modèle MoE DeepSeek V3, seuls 37 milliards de paramètres sont activés pendant la plupart des opérations, à l'instar du modèle V3.
Des performances qui égalent celles du modèle o1 d'OpenAI Pour 96% moins cher

Côté performances, DeepSeek-R1 obtient des résultats comparables voire supérieurs à la version o1-1217 et à o1-mini dans la plupart des benchmarks. Les versions distillées semblent également capables de se mesurer aux modèles d'OpenAI : par exemple, DeepSeek-R1-Distill-Qwen-32B surpasse o1-mini sur différents benchmarks, ce qui en fait une nouvelle référence en matière de modèles dits "denses". Le tout à un prix largement inférieur pour les développeurs qui souhaiteraient l'utiliser.

Quand un million de jetons coûte 0,55 dollars en entrée et 2,19 dollars en sortie pour l'API du modèle de DeepSeek, le prix est de 15 dollars en entrée et de 60 dollars en sortie pour l'API d'o-1. Plus concrètement, cela signifie que les prix d'entrée et de sortie de l'API o-1 sont respectivement 27,27 fois et 27,40 fois plus élevés que ceux de DeepSeek, ou pour le formuler autrement, le tarif de o-1 est environ 2627% et 2639% plus élevé que celui de DeepSeek. Si l'on fait une comparaison globale de l'ensemble des coûts pour 1 million de jetons, le chiffre est encore plus impressionnant : l'API de DeepSeek est 96,4% moins chère que l'API d'OpenAI.

https://www.usine-digitale.fr/article/d ... r.N2226172

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Dim Jan 26, 2025 11:00 pm
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message Boursodrama
Wow bordel! UN TRILLIARD de pertes pour Wall Street en une journée

Citation:
DeepSeek tech wipeout erases more than $1 trillion in market cap as AI panic grips Wall Street

https://markets.businessinsider.com/new ... ips-2025-1


C'est la panique!

Citation:
DeepSeek : sévère correction boursière à Wall Street, Nvidia plonge de 17%

Dans le sillage de Nvidia, une large partie du secteur des semi-conducteurs a également été plombée : Broadcom a dévissé de 17,40%, AMD a perdu 6,37%, Micron a décroché de 11,71% et Marvell Technology a sombré de 19,10%.

https://www.lefigaro.fr/secteur/high-te ... 7-20250128



Alors oui il se pourrait que le gouvernement chinois ait investi à fond pour créer cette nouvelle IA tout en pretendant que cela coûtait beaucoup moins cher, certains disent même qu'ils auraient utilisé beaucoup plus de processeurs Nvidia que leurs rivaux américains.

Ce serait le pied invisible du gouvernement chinois qui viendrait de décocher un penalty d'anthologie dans les bourses américaines et européennes, en somme :twisted:

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Mar Jan 28, 2025 10:08 am
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message Ce genre d'édito de baisé
On a deja les premiers effets deleteres de cette invention de merde avec les gens qui interpellent l'IA à tout bout de champ sur les réseaux sociaux comme si ils étaient désormais incapables de comprendre et analyser une information par eux même, voir meme ceux qui l'utilisent pour débattre. C'est vraiment LE progres d'imbecile que ça promettait d'etre, chapeau les mecs la came fait le taf! La suite logique c'est une dé-évolution, on va retourner vers les capacités mentales du singe tout en restant des humains tout lisses et bien peignés dans leurs bulles confortables, ça va être assez fascinant à observer quand l'IA sera partout, dans ton frigo, ta bagnole, tes jeux videos, ton lit pour ceux qui vont acheter des robots-salopes. Et pas que des robots-salopes, on verra aussi de vieils hommes se balader en boitant legerement tel Kayzer Sose, un enorme sourire aux levres, au bras d'un robot clone de Mike Tyson ou Shaquille O Neal pour les plus gourmands.

Evidemment les wokes vont nous faire chier sur les robots qu'ils sont opprimés pendant que des robots flics de 3 metres joueront de l’accordéon avec les corps des manifestants qui osent encore défiler. Ils sont vraiment perchés ceux la, ça va pas s'arranger avec l'IA qui validera tous leurs délires, puisque c'est deja ecrit sur internet. Ha ouais parce que j'ai oublie de le signaler au début mais en fait l'IA se plante souvent sur les sujets d'actualité car elle ne peut consulter que des articles qui ne sont pas forcemment les plus récents. Ce putain de gadget débile! Les dealers vont s'acheter des robots genre ED-209 dans Robocop, ça va etre le BOR-DEL! D'ailleurs les premiers robots utilisés par l'Etat devraient etre assez foireux, comme l'IA pour les collegiens qui a floppé récemment tellement elle répondait n'importe quoi. Ils auront l'apparence d'Omar Sy et ils buggeront de ouf genre te faire la lecon sur le COVID 5 ans plus tard.

Les gens qui n'utilisent pas l'IA seront suspectés d'etre débiles vu qu'ils ne seront plus dans la norme, le statut d'intellectuel tel qu'on l'imaginait va disparaitre, laissant place à une cohorte d'andouilles qui répèteront laborieusement ce que l'IA leur raconte dans l'oreillette. Les enfants naitront et grandiront devant les productions abominables de l'IA, genre Gulli en pire. Ils n'auront plus d'imaginaire digne, cohérent, ce sera le nawak total dans leurs tetes. Y'aura des animaux de compagnie robots aberrants, genre délire furry. Si c'est une niche sur internet ça se vendra. Ne soyez pas surpris si un jour vous retrouvez un putois humanoide en string et bas resilles dans votre jardin, ne l'approchez surtout pas à moins de 5 metres il est réglé sur le mode Salope insatiable.

Mais ce qui m'inquiete le plus c'est les gars du Discord qui sont probablement en train d'équiper des drones-posteurs en masse pour attaquer notre Zion, notre terre promise, notre eden: le madforumlibre. Cet enfoiré de Maouin a du leur donner les codes d'accés, il va falloir se préparer à se battre contre des topics aberrants sur des films douteux comme Midcatcher ou FoxSummar, des topics féminismes, dégueulis de végés ou que sais-je? Il faudra etre intraitable avec ces dégénérés meme si ils arborent les traits et le style de madnautes qu'on a connu et chéri. Ils se trahiront heureusement assez vite car ils n'ont pas la discipline, ils ne l'auront jamais.

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Jeu Mai 29, 2025 11:49 pm
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message On est fouti-foutus!
Voila un texte assez touffu mais ça vaut le coup de le lire, si vous êtes pas dépressif bien sur parce que c'est vraiment flippant



Citation:
Le fantôme derrière la machine. L'intelligence artificielle & l'ontologie spectrale de la valeur

Par Laura Ruggeri, le 27 avril 2025, Blog Personnel

En février dernier, j'ai publiquement mis en doute l'existence de Jianwei Xun, auteur d'un best-seller acclamé par la critique et intitulé Hypnocracy : Trump, Musk and the New Architecture of Reality (Hypnocratie : Trump, Musk et la nouvelle architecture de la réalité). Sur son site web et sur academia.org - la version originale de son profil ne peut désormais plus être trouvée que sur Internet Archive - il prétendait être un philosophe des médias né à Hong Kong, un chercheur à l'Institute for Critical Digital Studies à Berlin ayant étudié la philosophie politique et les médias à l'université de Dublin.

Comme je vis à Hong Kong et que j'ai enseigné les sciences culturelles, j'ai été fort surprise de n'avoir jamais entendu son nom auparavant. Avais-je à ce point perdu le contact avec ce domaine interdisciplinaire que son nom ne m'était même pas vaguement familier ? En tout cas, il semblait étrange : les noms chinois suivent un ordre différent, le nom de famille aurait dû venir en premier. J'ai alors décidé d'approfondir la question. L'institut berlinois qu'il mentionnait n'existait pas, "l'université de Dublin" était une référence ambiguë et ne renvoyait à aucune université en particulier. Xun affirmait avoir passé des années à conseiller des institutions mondiales sur des récits stratégiques avant de se consacrer à l'écriture. Je n'ai trouvé aucune trace de sa production universitaire ou de son activité professionnelle avant 2024, date à laquelle son œuvre a été publiée pour la première fois en plusieurs langues. Les extraits de livres que j'ai lus ne m'ont pas semblé particulièrement originaux, ressemblant à un amalgame de philosophie des années 1960 et 1970. Mais contrairement à d'autres textes dérivés que je vois souvent passer, ils présentaient une qualité étrange, un peu comme si un médium avait invoqué les esprits des philosophes décédés lors d'une séance. Étant donné que les imposteurs d'aujourd'hui sont plus susceptibles d'utiliser l'IA que de faire tourner les tables, j'en suis rapidement venu à la conclusion que celui qui se cachait derrière le mystérieux "Jianwei Xun" s'était servi d'outils d'IA générative pour produire ce livre.

Des mois après avoir dénoncé cette imposture frauduleuse [1] et échangé des messages avec plusieurs journalistes, les médias institutionnels ont fini par admettre l'inexistence de Xun. L'éditeur italien qui s'est caché derrière cette identité fictive affirme aujourd'hui n'avoir fait que mener une expérience, "un exercice d'ingénierie ontologique", comme il l'a dit. Mais si c'était le cas et que son intention n'était pas de tromper ses lecteurs, pourquoi avoir supprimé les références académiques et professionnelles qu'il avait fabriquées sur le site web nouvellement mis à jour de son faux personnage ?

Le choix d'une identité chinoise pour renforcer la crédibilité et les perspectives de vente reflète un modèle préoccupant d'appropriation culturelle où les écrivains occidentaux capitalisent sur l'exotisme perçu d'un nom asiatique, alors que les vrais écrivains asiatiques sont confrontés à des obstacles importants à la publication de leurs œuvres.

S'il y a une leçon à tirer de la saga de Jianwei Xun, c'est que le battage médiatique autour de "son" travail et de sa personnalité, amplifié par des médias réputés, des critiques élogieuses et une présence en ligne efficace, a créé une boucle de rétroaction dans laquelle la perception de la réalité a dépassé tout besoin d'en vérifier la véracité. Lorsque les frontières entre le réel et l'irréel deviennent floues, le marketing agressif fait que ces frontières ne sont plus pertinentes.

L'IA produisant un contenu qui, pour un œil non averti, semble impossible à distinguer de la production humaine, et les médias s'empressant de le publier, le public est de plus en plus enclin à donner la priorité au battage médiatique et n'a souvent même pas le temps d'effleurer la surface du sujet.

Si le système médiatique a toujours misé sur le battage médiatique et le sensationnalisme, les plateformes de réseaux sociaux sont aujourd'hui les principaux générateurs en la matière.

Alors que je répondais aux questions des médias sur le fictif « philosophe des médias né à Hong Kong » et que j'écrivais sur ce cas sur mon blog Substack, un lecteur m'a signalé un autre cas de plagiat habituel par l'IA, impliquant cette fois une personne vivant à Hong Kong et collaborant avec des médias russes et chinois.

Ses articles d'opinion sont-ils passés inaperçus ? Les rédacteurs ont-ils décidé de fermer les yeux sur le contenu généré par l'IA afin de tirer parti de sa notoriété sur les réseaux sociaux ?

Quoi qu'il en soit, nous ne devrions pas nous concentrer sur des cas particuliers : toute personne utilisant un détecteur d'IA sait que cette pratique contraire à l'éthique est largement répandue. J'invite plutôt le lecteur à examiner l'interaction complexe des dynamiques d'audience et des facteurs économiques et culturels qui favorisent à la fois l'essor du plagiat par l'IA et l'industrie des influenceurs sociaux.

Le mode de fonctionnement des influenceurs sociaux devrait aujourd'hui être tout à fait clair. L'autopromotion, les affirmations exagérées complétées par une image bien construite peuvent faire boule de neige et devenir crédibles avant même que quiconque ne vérifie les références. Les influenceurs établissent des relations parasociales avec leurs followers, qui ont l'impression de les connaître, même s'ils ne se sont jamais rencontrés. Les influenceurs cherchent à créer une aura d'individualité et d'authenticité en racontant des histoires personnelles, en partageant des images brutes ou du matériel sensationnel, en invitant les fans à "jeter un coup d'œil" dans leur vie et en encourageant le voyeurisme.

Toutefois, cette aura est encore plus fragile que l'aura artificielle mentionnée par Walter Benjamin lorsqu'il décrivait, dans les années 1930, le phénomène hollywoodien d'élévation des acteurs au statut de célébrité, créant des personas cultes qui compensaient la perte d'aura à l'ère de la reproduction mécanique. Non seulement le contenu dérivé des influenceurs est facilement reproductible, mais ils sont également vulnérables au remplacement par des personas générés par l'IA.

Benjamin a reconnu dans l'envoûtement provoqué par la personnalité de la star "l'attraction factice d'une marchandise". Mais surtout, il a averti qu'un média doté d'une double capacité à abolir la distance entre le public et le monde représenté, tout en détachant simultanément le public du monde physique et de ses conditions matérielles, est idéalement préparé à servir les objectifs du fascisme. Benjamin faisait principalement référence au cinéma et à la photographie, mais à l'ère de la reproduction algorithmique contrôlée par une poignée d'entreprises technologiques, ses observations sont plus pertinentes que jamais.

Les influenceurs tirent parti de l'effet de vague, ce mélange de conformisme et de peur de manquer. Une fois qu'une persona prend de l'ampleur, aidé par des milliers de bots dont le coût est désormais inférieur à un centime pour les comptes de base, les humains se précipitent. La poudre aux yeux véhiculée par les réseaux sociaux fonctionne parce que nous sommes faits pour les histoires, pas pour en vérifier la véracité. Mais avec les milliards de bots automatisés qui inondent les plateformes de réseaux sociaux, la probabilité que tout compte avec lequel vous vous engagez, que ce soit en likant une publication, en commentant ou en suivant, soit un bot, est d'environ 50 %. Les bots sont devenus si sophistiqués que les détecter devient de plus en plus ardu. Quant aux comptes encore gérés par des humains, environ la moitié d'entre eux publient du contenu généré par une intelligence artificielle.

Même ceux dont l'expertise sur un sujet donné est limitée peuvent produire des messages et des articles convaincants, alors que les lecteurs auraient besoin d'un outil d'IA tel que GPTZero pour identifier leur origine artificielle.

Une simple invitation ou un simple message permet de s'assurer que le contenu généré par l'IA qu'ils publient est aligné sur les tendances idéologiques, les intérêts et les préférences de ceux qui les suivent, et qu'ils y trouvent une certaine résonance. Un article paru dans un média conservateur peut être automatiquement réécrit pour plaire à un public libéral, et vice versa. Un article publié par un universitaire peut être résumé et émaillé de boutades et d'expressions familières pour séduire un public non universitaire, trois articles peuvent être fusionnés en un seul, créant ainsi une pièce cohérente qui synthétise leur contenu, etc. Vous comprenez ce que je veux dire.

Façonnés par un mélange d'activité humaine et de contenu généré par l'IA, Internet et les réseaux sociaux ressemblent aujourd'hui à une fantasmagorie, un spectacle optique imaginaire qui projette des images fantomatiques, fétichise les désirs et les expériences humaines et intensifie l'autoréférence narcissique pour créer une illusion d'authenticité. La présentation fabriquée du soi (l'authenticité fabriquée) est l'ultime impératif néolibéral : les individus sont activement encouragés à devenir des producteurs d'eux-mêmes. Le nom du jeu est "fake it till you make it" (faire semblant jusqu'à ce que ça marche, jusqu'au succès). Le manque de qualifications ou d'expertise professionnelle n'est nullement un obstacle pour les influenceurs en herbe. L'ambition, une formation en marketing, une bonne connaissance des techniques de manipulation psychologique, la capacité à exploiter les algorithmes et un investissement initial dans une armée de bots pour stimuler le contenu sont les meilleurs garants de la réussite.

Ceux qui parviennent à s'imposer peuvent décrocher des contrats juteux pour promouvoir des produits, des services ou un programme politique. Plus leur activité génère d'engagement et de trafic, plus les plateformes de réseaux sociaux accumulent du capital de données.

Sans surprise, cet état de fait nuit à l'engagement réel et pousse un nombre croissant d'internautes frustrés et désabusés à quitter ces plateformes, laissant les bots interagir avec d'autres bots, comme le déplorent déjà les publicitaires.

Alors que l'IA générative fait tomber les barrières de la productivité - on peut facilement produire des dizaines de messages sur les réseaux sociaux par jour, des dizaines d'articles par semaine et s'en servir pour des vidéos, des podcasts et des interviews - les inquiétudes concernant le plagiat par les machines ne cessent de croître. Au départ, les critiques les plus virulentes émanaient des personnes directement concernées, telles que les auteurs, les artistes, les journalistes et les universitaires, mais, comme je vais l'expliquer, les chercheurs en IA tirent eux aussi la sonnette d'alarme. Il s'avère que les textes générés par l'IA, omettant l'attribution, remixant des contenus non consentis et les réduisant à un mix intraçable et méconnaissable, constituent une forme de pollution qui dégrade le même environnement numérique que celui qui alimente les systèmes d'IA.

Ces systèmes, en particulier les grands modèles de langage et les outils génératifs, sont formés à partir de données extraites de l'internet, notamment de livres, d'articles, de sites web et de réseaux sociaux. Le vol à l'échelle mondiale est présenté comme l'avenir de l'humanité.

Non seulement les entreprises d'IA profitent d'un travail pour lequel elles n'ont jamais versé un kopeck ni demandé la permission de l'utiliser, mais celles qui s'appuient sur l'IA générative en profitent également, ce qui stimule la demande de chatbots de plus en plus sophistiqués et ressemblant toujours plus à des humains.

Comme la plupart des industries, l'IA est en train de transformer les médias traditionnels. Si les outils analytiques de l'IA peuvent certes aider les journalistes à traiter un grand volume de données et à identifier des modèles significatifs, et si la technologie de transcription de l'IA leur permet de gagner du temps sur une tâche plutôt banale, il en va tout autrement de l'IA générative. Cette pratique met en péril l'intégrité journalistique, les emplois et la confiance des lecteurs. Comme toujours, le principal moteur de l'utilisation d'outils d'IA tels que ChatGPT est la recherche du profit. Le problème est que les réductions dans les salles de rédaction affaiblissent la qualité du journalisme, aliénant ainsi le public, qui à son tour exerce une pression supplémentaire sur les revenus, ce qui conduit à nouveau à de nouvelles réductions de personnel, et ainsi de suite.

La complexité du travail journalistique repose sur un répertoire d'expériences et de connaissances incarnées - la constitution d'un réseau de sources fiables prêtes à partager leurs secrets n'est pas quelque chose que l'IA sera en mesure de réaliser de sitôt.

Malheureusement, dès que le résultat de ce travail minutieux, qui peut impliquer de combiner interviews et recherches approfondies, est publié en ligne, il est noyé dans des centaines de variantes du même article générées par l'IA, qui en remixent et en réécrivent le contenu. Il en résulte des textes standardisés et homogènes, dépouillés de la substance vibrante et dynamique des voix humaines et de leur diversité. Ou un mimétisme qui simule la diversité - le "texte en traînée". Mais alors qu'Internet est inondé d'articles clickbait générés par IA qui rivalisent pour attirer l'attention des lecteurs, investir dans la qualité ne garantit aucun retour sur investissement aux médias et aux auteurs indépendants.

En outre, la surproduction de contenu dérivé par l'IA submerge les moteurs de recherche et les flux sociaux, et exacerbe le problème de la surcharge d'informations. Les lecteurs peuvent difficilement faire face à un déluge d'informations et à une stimulation numérique constante qui nuit à leur capacité de mémorisation, d'attention, d'esprit critique et de traitement de l'information. Nombreux sont ceux qui se désintéressent déjà de l'actualité, l'évitent complètement ou se contentent de faire défiler et de ne lire que les gros titres.

Bien qu'il n'ait jamais été aussi facile de régurgiter des informations, leur impact devient rapidement inversement proportionnel à leur quantité. L'information n'a pas besoin d'être interprétée pour exister et ne se traduit pas nécessairement par la connaissance et la compréhension. Cela peut être le cas, mais uniquement par le biais d'un processus cognitif dynamique dont l'acquisition n'est que la première étape. Alors que l'intelligence artificielle progresse dans ses capacités, rien ne prouve que les êtres humains progressent dans les leurs. En réalité, ces derniers perdent déjà la capacité de penser clairement et efficacement, sans parler de la gestion de la complexité.

La confusion ontologique est une autre conséquence de la prolifération des systèmes d'IA. Il s'agit d'un état de désorientation existentielle résultant de l'ambiguïté ou de l'indétermination des catégories de l'être, de l'essence et de la réalité. L'IA crée une brèche dans la barrière entre les humains et les objets, même s'il est juste de dire que le capitalisme a commencé à la détruire il y a longtemps. Si cette barrière s'effondre, notre conception de ce qu'est l'être humain sera profondément ébranlée. L'IA perturbe déjà les cadres établis de signification, d'interaction et de confiance ; ne pas prendre la mesure de cette disruption pourrait avoir des effets catastrophiques tant sur les individus que sur les sociétés.

Si l'IA doit aider les humains et non les tromper, un système d'identification obligatoire de l'IA est indispensable : tout agent autonome d'IA doit se déclarer comme tel avant d'interagir avec un être humain et l'industrie des médias, y compris les plateformes de réseaux sociaux, doit clairement étiqueter les contenus générés par l'IA. Les outils de détection de l'IA ne manquent pas et sont assez efficaces pour identifier les segments d'un texte susceptibles d'être rédigés par un humain, générés par l'IA ou raffinés par l'IA.

Certains espèrent également que, tôt ou tard, les moteurs de recherche commenceront à offrir aux utilisateurs un filtre d'IA efficace. D'ici là, l'élimination des contenus artificiels continuera d'être une entreprise de longue haleine.

Bien que l'optimiste qui est en moi partage la conviction que la transparence sur les contenus générés par l'IA devrait théoriquement augmenter en raison d'une forte demande, ma fibre pessimiste estime que la probabilité que cela se produise rapidement s'avère très faible : l'économie numérique repose sur le capital de données, qui entretient une relation symbiotique avec l'IA. Et Big Tech ne changera pas le statu quo tant que la qualité des données ne se dégradera pas au point d'éroder ses profits colossaux.

L'IA transforme les données en capital et s'appuie sur le capital de données pour se former et fonctionner. L'IA est à la fois un moteur et un bénéficiaire du capital de données. C'est pourquoi les logiciels sont intégrés dans un nombre croissant de produits : ils génèrent tous des données.

Comme l'a expliqué un "stratège Big Data" d'Oracle, l'un des plus grands éditeurs de logiciels au monde, "les données constituent un nouveau type de capital, au même titre que le capital financier, pour la création de nouveaux produits et services. Et il ne s'agit pas d'une simple métaphore ; les données répondent à la définition littérale du capital figurant dans les manuels" (2).

J'ignore à quel manuel il pensait, mais pour comprendre la dynamique économique et sociale qui anime la soi-disant quatrième révolution industrielle, je vais consulter l'exemplaire du Capital de Marx trônant sur mon étagère et qui, il est vrai, a besoin d'un peu de dépoussiérage.

Marx définit le capital comme une valeur en mouvement, c'est-à-dire une valeur d'un type particulier, à savoir une valeur qui s'étend d'elle-même, un rapport social qui s'approprie la plus-value créée dans un processus de production défini et reproduit continuellement à la fois le capital et les relations capitalistes.

Pour se développer, le capital doit acquérir une marchandise dont la consommation crée une nouvelle valeur. Cette marchandise est la force de travail, une vérité gênante que notre "stratège du Big Data" n'a pas pris la peine de mentionner.

"Pour pouvoir extraire de la valeur de la consommation d'une marchandise, notre ami, Moneybags, doit avoir la chance de trouver, dans la sphère de circulation, sur le marché, une marchandise dont la valeur d'usage possède la propriété particulière d'être une source de valeur, dont la consommation effective, par conséquent, est elle-même une incarnation du travail, et, par conséquent, une création de valeur. Le détenteur d'argent trouve sur le marché une telle marchandise spéciale en capacité de travail ou en force de travail". (Le Capital, chapitre 6)

La création de valeur dépend de l'intellect général, c'est-à-dire du savoir, des compétences et des capacités intellectuelles de la société, mais sous le capitalisme, elle est soumise à l'appropriation et au contrôle privés. Les oligarques de la technologie aiment présenter cette appropriation privée pour leurs modèles d'IA comme une "démocratisation de l'accès à la connaissance". Si c'est le cas, peut-être devrions-nous commencer à démocratiser l'accès à leurs comptes bancaires.

Lorsque les données sont traitées comme une forme de capital, l'impératif est d'extraire et de collecter autant de données que possible, à partir d'autant de sources que possible, et par tous les moyens possibles. Cela ne devrait pas être une surprise. Le capitalisme est intrinsèquement extractif et exploiteur. Il génère en outre une pression ou une tendance constante à la marchandisation universelle, ne cesse de coloniser de nouveaux territoires, des éléments non commercialisés et non monétisés de la vie, avec le même mépris pour les dommages collatéraux dont il fait preuve lorsqu'il exploite le travail et les ressources naturelles à des fins lucratives.

Il importe de garder à l'esprit que les données sont à la fois une marchandise et un capital. Une marchandise lorsqu'elle est échangée, un capital lorsqu'elle est utilisée pour extraire de la valeur.

L'IA distille l'information en données en transformant tout type de données entrantes en représentations abstraites et numériques pour permettre le calcul.

La distinction entre le consommateur et le producteur d'informations disparaît dès lors que leur activité devient des données. Être en ligne, c'est à la fois consommer et produire des données, c'est-à-dire de la valeur. Les internautes génèrent des données par le biais d'interactions que les plateformes monétisent. Ce "travail" non rémunéré est comparable à la force du travail de Marx, car les utilisateurs produisent de la valeur (des données). Les algorithmes d'IA, l'infrastructure en cloud et les plateformes numériques sont les nouveaux moyens de production, et ils sont concentrés entre les mains d'un très petit nombre de personnes.

L'extraction et la collecte de données sont dictées par les impératifs de l'accumulation du capital, qui à son tour pousse le capital à bâtir et à s'appuyer sur un univers où tout est réduit à des données. Comme les données qui sont introduites dans les machines ont subi un processus d'abstraction préliminaire, rien n'empêche ces données d'être le produit de cycles antérieurs de production artificielle d'informations par le biais de données. Les données génèrent des données qui génèrent des données et ainsi de suite. Comme le capital porteur d'intérêts, "source mystérieuse et auto-créatrice de son propre accroissement... valeur auto-valorisante, argent engendrant l'argent", ainsi que Marx décrit le processus de financiarisation qui autonomise le capital de son propre support.

L'accumulation de données et l'accumulation de capital aboutissent au même résultat, à savoir l'accroissement des inégalités et la consolidation du pouvoir monopolistique des entreprises.

Mais, tout comme l'autonomisation du capital qui évince les investissements non financiers a un effet néfaste sur les secteurs productifs, la prolifération du contenu de l'IA en ligne en fait de même. Plusieurs chercheurs ont souligné que la production de données à partir de données synthétiques entraînait de dangereuses distorsions. Former de grands modèles de langage sur leur propre production ne fonctionne pas et peut conduire à un "effondrement du modèle", un processus dégénératif par lequel, au fil du temps, les modèles oublient la véritable distribution des données sous-jacentes, commencent à halluciner et à produire des absurdités (3).

Sans un apport constant de données de bonne qualité émanant de l'homme, ces modèles linguistiques ne peuvent s'améliorer. La question est de savoir qui va alimenter des textes bien écrits, factuellement exacts et exempts d'IA, alors qu'un nombre croissant de personnes se déchargent de leurs efforts cognitifs sur l'intelligence artificielle, et que le déclin de l'intelligence humaine est de plus en plus évident.

Lorsque Ray Kurzweil, promoteur du transhumanisme et pionnier de l'IA, vante les mérites des systèmes d'apprentissage automatique qui commenceront bientôt à se perfectionner en concevant des réseaux neuronaux de plus en plus puissants ne nécessitant aucune intervention humaine "Parce que les ordinateurs fonctionnent beaucoup plus vite que les humains, le fait d'exclure l'homme de la boucle du développement de l'IA permettra de débloquer des taux de progrès stupéfiants", il ne fait qu'utiliser la langue de bois. Interrogé sur l'impact de l'IA sur le travail, Kurzweil a expliqué qu'il envisageait une société où la majorité des individus recevraient un revenu de base universel d'ici 2030. En d'autres termes, ils survivraient en mangeant quelque chose comme Soylent (marque de substituts de repas, créée en 2013 et fabriquée par l'entreprise américaine Rosa Foods) ou des protéines d'insectes. On peut supposer que leur vie correspondrait à la définition de la "vie nue" proposée par Giorgio Agamben, une existence réduite à sa forme biologique la plus élémentaire, dépourvue de toute signification politique ou sociale.

Mais à mesure que la qualité de leur vie se dégrade, il en va de même de la qualité et de la valeur des données qu'ils produisent gratuitement.

Ceux qui prônent l'IA prétendent que l'intelligence artificielle agira comme une force transformatrice, quasi divine, qui résoudra les problèmes de l'humanité, ouvrant la voie à une ère de prospérité et de transcendance. En réalité, si la trajectoire actuelle est une indication des développements futurs, l'IA est bien plus susceptible d'enraciner une dystopie hypercapitaliste que de construire une utopie postcapitaliste.

L'idée selon laquelle les machines pourraient remplacer le travail humain, le rêve éveillé des capitalistes, n'est ni nouvelle ni originale. Elle est présente depuis le début de la première révolution industrielle. Ses partisans oublient qu'un plus grand recours aux robots et à l'IA entraînerait une baisse du taux de profit au niveau de l'ensemble de l'économie si la majorité de la population vit au jour le jour. En se concentrant sur les capitalistes individuels qui obtiennent un avantage concurrentiel en accroissant la productivité, ils ne voient pas l'ensemble du tableau. Un exemple typique de la façon dont on ne voit pas la forêt pour les arbres.

L'IA et les plateformes numériques sont contrôlées par une poignée d'entreprises technologiques, dont les propriétaires occupent les premières places du classement des milliardaires mondiaux. Il est évident que nous ne pouvons faire confiance à ceux qui ont un intérêt direct à nous faire avaler l'IA pour donner la priorité au bien public. Ils dépensent des millions pour minimiser les risques et contrecarrer toute tentative d'introduire des réglementations efficaces.

Dans un monde façonné par une puissante oligarchie technologique, qui dégage une forte impression dystopique, les frontières entre le pouvoir des entreprises, l'influence de l'État et la technologie de pointe s'estompent jusqu'à devenir indistinctes.

Si l'on ajoute à cela la concurrence géopolitique et une situation économique mondiale morose, les gouvernements sont tout à fait disposés à se joindre à la course à l'IA, qui ne fait désormais plus qu'un avec la course aux armements. Parmi les applications militaires de l'IA citons l'analyse du renseignement, de la surveillance et de la reconnaissance, les drones en réseau, les armes autonomes, la cybersécurité, la logistique, l'aide à la décision, la formation, la guerre électronique ou encore les opérations psychologiques.

Affirmer que l'IA est au cœur de la projection de puissance des États au 21ème siècle n'est pas une exagération. Les multinationales américaines exercent un contrôle impérial sur une vaste partie de l'écosystème numérique mondial.

Si l'on considère les données comme une marchandise, il ne faut pas oublier que le "temps de travail socialement nécessaire" cumulé - le travail passé et présent - est incorporé dans ces données, que la force de travail humaine a été dépensée dans leur production. Même si l'activité en ligne productrice de données n'apparaît pas nécessairement et immédiatement comme du travail, le temps que l'on passe en ligne est du temps soustrait aux expériences de la vie réelle, à la famille et à l'interaction sociale. Le temps passé devant un écran peut même empiéter sur le temps de sommeil.

Ce temps peut être du travail au sens traditionnel du terme, comme la création de contenu, le codage ou l'exécution de tâches rémunérées, ou s'apparenter davantage à du loisir ou à de la consommation.

En fin de compte, la valeur de la marchandise et, par extension, du travail humain collectif, est relative à ce qui est considéré comme nécessaire par la société actuelle, par les aspirations et les besoins humains actuels.

Le travail invisible, sous-évalué et abstrait (comme le travail numérique non rémunéré) ne signifie pas que le travail a disparu, il reste essentiel dans les processus de valorisation.

La raison pour laquelle la capacité de création de valeur du travail est commodément ignorée et dissimulée a tout à voir avec les relations de production capitalistes et l'extraction de la plus-value.

Lorsque vous avez des rapports sexuels, vous ne produisez pas de données. Vous pouvez concevoir un enfant, mais à moins de vous engager dans cette activité parce que quelqu'un veut acheter le bébé, personne ne considérerait les rapports sexuels et la gestation comme du "travail" et le nouveau-né comme une "marchandise". Mais si vous regardez du porno, avez des relations sexuelles tout en utilisant un gadget électronique, ou s'il y a à proximité des appareils équipés de capteurs, de capacités de traitement, de logiciels, etc, vous produisez des données.

Mais revenons-en à la marchandise, puisqu'elle incarne la logique du capitalisme et constitue l'unité de base de l'échange économique dans un système capitaliste.

Ce qui complique fondamentalement et rend mystérieux le concept de marchandise, c'est la notion même que le travail individuel prend une forme sociale. Dans cette forme sociale, ce qui devient le plus difficile, c'est la quantification et l'évaluation de ce travail individuel, la "dépense (charge) du cerveau, des nerfs, des muscles, etc. de l'homme".

Ici, le concept de fétichisme de la marchandise, bien qu'élaboré par Marx dans une dimension spatiale, technologique et organisationnelle du capitalisme différente de la dimension contemporaine, reste l'un de ses aspects spécifiques et constitutifs.

Marx a utilisé cette catégorie pour représenter la forme spécifique de socialité dans une économie basée sur les marchandises et sur la médiation du marché. Dans ce système, les marchandises occultent les relations entre les individus et, par un processus d'inversion, la marchandise prend une existence autonome, détachée du travail humain et des interactions qui l'ont produite. Une objectivité spectrale.

Marx a perçu et observé l'objectivité spectrale de la marchandise au milieu du 19ème siècle, à une époque où la révolution industrielle déchirait le tissu social, économique et culturel de l'Angleterre victorienne, creusant les inégalités et intensifiant l'exploitation et l'aliénation. Face aux changements et bouleversements radicaux provoqués par l'introduction de technologies qui avaient mécanisé et concentré la production, et de technologies qui semblaient abolir la distance temporelle et physique, comme la photographie, le télégraphe et, plus tard, le téléphone et la radio, certains se sont tournés vers le spiritisme. Lorsque le solide s'est volatilisé, que le sacré a été profané, les croyances dans le paranormal, les pouvoirs magiques et l'occultisme se sont développés. Tandis que la vie des travailleurs était écourtée dans les bidonvilles et les usines, et que la valeur du travail était occultée dans la marchandise, la communication avec les morts par le biais de médiums et de séances de spiritisme est devenue un passe-temps à la mode au sein de la bourgeoisie. Marx a perçu et remarqué l'objectivité spectrale de la marchandise au milieu du XIXe siècle, à une époque où la révolution industrielle déchirait le tissu social, économique et culturel de l'Angleterre victorienne, creusant les inégalités et intensifiant l'exploitation et l'aliénation. Face aux changements et bouleversements radicaux provoqués par l'introduction de technologies qui avaient mécanisé et concentré la production, et de technologies qui semblaient abolir la distance temporelle et physique, comme la photographie, le télégraphe et, plus tard, le téléphone et la radio, certains se sont tournés vers le spiritisme. Lorsque tout ce qui est solide s'est fondu dans l'air, que tout ce qui est sacré a été profané, les croyances dans le paranormal, les pouvoirs magiques et l'occultisme ont prospéré. Tandis que la vie des travailleurs est écourtée dans les bidonvilles et les usines, et que la valeur du travail est occultée dans la marchandise, la communication avec les morts par le biais de médiums et de séances de spiritisme devient un passe-temps à la mode au sein de la bourgeoisie. Les médiums usaient de divers artifices pour faire léviter les tables et convaincre leur public qu'une présence de au-delà (spectre) se trouvait parmi eux.

Troublée par la culpabilité et hantée par la peur, l'Angleterre victorienne est devenue obsédée par les esprits.

Marx exploite les peurs de la bourgeoisie lorsqu'il évoque le "spectre" du communisme. En présentant le communisme comme un "spectre" et en affirmant que le capitalisme est intrinsèquement instable et hanté par ses propres contradictions, il amplifie l'anxiété de la bourgeoisie.

Lorsqu'il aborde la qualité apparemment magique de la marchandise, décrite comme le fétichisme de la marchandise, il l'expose comme une forme de tromperie en établissant une comparaison avec les "tables qui lévitent".

"Il est clair comme de l'eau de roche que l'homme, par son industrie, modifie les formes des matériaux fournis par la nature, de manière à ce qu'ils lui soient utiles. Ainsi, la forme du bois est modifiée lorsqu'on en fait une table. Pourtant, la table reste cette chose commune et quotidienne qu'est le bois. Mais dès lors qu'elle devient une marchandise, elle se transforme en quelque chose de transcendant. Non seulement elle repose sur ses pieds, mais, par rapport à toutes les autres marchandises, elle prend de la hauteur et fait naître de son cerveau de bois des idées grotesques, bien plus merveilleuses que ne l'a jamais été celui qui fait "bouger les tables"." (Le Capital, chapitre 1)

Les données, marchandise la plus convoitée et la plus fétichisée d'aujourd'hui, réussit encore mieux à dissimuler ses origines sous des opérations mathématiques et des raisonnements statistiques. Et elle engendre certainement plus d'idées grotesques et fantaisistes que n'importe quelle marchandise connue de Marx.

Dans la fantasmagorie spectrale de l'intelligence artificielle, les "utopistes" et les "cyniques" se sont donné la main, tandis que nous nous débattons avec les conséquences de la confusion ontologique, de la perte de confiance et de l'intensification de l'exploitation. Alors que les relations marchandes façonnent l'objectivité et la subjectivité dans le capitalisme, imprégnant chaque aspect de la vie sociale et la modelant à son image, ceux qui refusent d'être déqualifiés et réduits à la "vie nue" doivent absolument s'organiser et riposter.

https://zanzibar.substack.com/p/le-fant ... telligence

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Mer Juil 02, 2025 7:57 pm
Profil Site Internet
Wookie
Avatar de l’utilisateur

Inscription: Dim Juil 28, 2019 5:25 am
Messages: 1692
Localisation: Montargis
Message Génération Pascal Duquenne
Citation:
IA générative : le risque de l’atrophie cognitive

En bref
Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement.
Utiliser ChatGPT pour écrire un essai réduirait l’engagement cognitif et l’effort intellectuel nécessaire pour transformer une information en connaissance, selon une étude.
Cette étude a aussi montré que 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire pour un essai.
D’autres travaux montrent que le gain individuel peut être important quand des auteurs demandent à ChatGPT d’améliorer leurs textes, mais que la créativité globale du groupe diminue.
Face à ces risques, il s’agit de toujours douter des réponses données par les générateurs de texte et d’engager sa volonté pour réfléchir à ce qu’on lit, entend ou croit.
Moins de trois ans après le lancement de ChatGPT, 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement1. Des études commencent cependant à pointer l’impact négatif de ces technologies sur nos capacités cognitives. Ioan Roxin, professeur émérite à l’université Marie et Louis Pasteur et spécialiste de technologies de l’information, répond à nos questions.

Vous affirmez que l’explosion de l’utilisation des LLM (Large Language Models, modèles d’IA générative parmi lesquels figurent ChatGPT, Llama ou Gemini) intervient alors que notre rapport à la connaissance est déjà altéré. Pourriez-vous développer ?
Ioan Roxin. L’utilisation massive d’Internet et des réseaux sociaux a déjà fragilisé notre rapport au savoir. Bien sûr, ces outils ont des applications formidables en termes d’accès à l’information. Mais contrairement à leurs promesses, ils opèrent moins une démocratisation des connaissances qu’une illusion généralisée du savoir. Je ne crois pas exagéré de dire qu’ils poussent globalement à une médiocrité intellectuelle, émotionnelle et morale. Intellectuelle parce qu’ils favorisent une surconsommation de contenus sans véritable analyse critique, émotionnelle parce qu’ils occasionnent une dépendance toujours plus profonde aux stimulations et au divertissement, et morale, parce que nous sommes tombés dans une acceptation passive des décisions algorithmiques.

Cette altération de notre rapport au savoir a‑t-elle des fondements cognitifs ?
Oui. En 2011 déjà, une étude avait mis en évidence l’ « effet Google » : quand nous savons qu’une information est accessible en ligne, nous la mémorisons moins bien. Or, lorsque l’on n’entraîne plus sa mémoire, les réseaux neuronaux associés s’atrophient. Il a également été prouvé que les notifications, alertes et suggestions de contenus incessantes sur lesquelles s’appuient massivement les technologies digitales réduisent considérablement notre capacité de concentration et de réflexion. Moins de capacités de mémorisation, de concentration et de réflexion conduisent à une pensée appauvrie. Je crains fort que l’usage massif des IA génératives n’améliore pas la situation.

Quels risques supplémentaires font courir ces IA ?
Ils sont à la fois d’ordre neurologique, psychologique et philosophique. Du point de vue neurologique, un usage massif de ces IA fait courir le risque d’une atrophie cognitive globale et d’une perte de la plasticité cérébrale. Des chercheurs du Massachusetts Institute of Technology (MIT) ont par exemple mené une étude2 sur 4 mois, impliquant 54 participants à qui ils ont demandé de rédiger des essais sans aide, avec accès à Internet via moteur de recherche ou avec ChatGPT. Leur activité neuronale a été suivie par EEG. L’étude, dont les résultats sont encore en préprint, a établi que l’utilisation d’Internet, mais plus encore de ChatGPT, réduisent significativement l’engagement cognitif et la « charge cognitive pertinente », c’est-à-dire l’effort intellectuel nécessaire pour transformer une information en connaissance.


Plus précisément, les participants épaulés par ChatGPT ont rédigé 60 % plus rapidement, mais leur charge cognitive pertinente a chuté de 32 %. L’EEG a mis en évidence une connectivité cérébrale presque divisée par deux (ondes Alpha et Thêta) et 83 % des utilisateurs d’IA étaient incapables de se souvenir d’un passage qu’ils venaient d’écrire.

D’autres études vont dans le même sens : des travaux3 menés par des chercheurs qataris, tunisiens et italiens indiquent ainsi qu’un usage massif des LLM fait courir le risque d’un déclin cognitif. Les réseaux neuronaux impliqués dans la structuration de la pensée, dans la rédaction de textes, mais aussi dans la traduction, dans la production créative, etc. sont complexes et profonds. Déléguer ces efforts mentaux à l’IA conduit à une « dette cognitive» cumulative : plus l’automatisation progresse, moins le cortex préfrontal est sollicité, laissant présager des effets durables en dehors de la tâche immédiate.

Qu’en est-il des risques psychologiques ?
Les IA génératives ont tout pour nous rendre dépendants : elles s’expriment comme des humains, s’adaptent à nos comportements, semblent avoir réponse à tout, ont un fonctionnement ludique, relancent sans arrêt la conversation et se montrent extrêmement complaisantes à notre égard. Or, la dépendance est nocive non seulement parce qu’elle potentialise les autres risques mais aussi en elle-même. Elle peut engendrer un isolement social, un désengagement réflexif (si une IA peut répondre à toutes mes questions, pourquoi apprendre ou penser par moi-même ?), voire un sentiment d’humiliation profond face à l’incroyable efficacité de ces outils. Rien de tout cela n’est très enthousiasmant pour notre santé mentale.

Et du point de vue philosophique ?
Une atrophie cognitive généralisée est déjà un risque philosophique en soi… Mais il y en a d’autres. Si ce type d’outils est utilisé largement – et c’est déjà le cas dans les jeunes générations – nous risquons une uniformisation de la pensée. Des travaux4 conduits par deux chercheurs britanniques ont montré que lorsque des auteurs demandaient à ChatGPT d’améliorer leurs textes, le gain individuel pouvait être important, mais la créativité globale du groupe diminuait. Un autre risque concerne notre pensée critique.

Une étude5 menée par Microsoft auprès de 319 travailleurs du savoir montre en outre une corrélation négative substantielle (r = ‑0,49) entre la fréquence d’usage des outils d’IA et le score de pensée critique (échelle de Bloom). L’étude conclut à un déchargement cognitif qui s’amplifie lorsque la confiance dans le modèle surpasse la confiance en ses propres compétences. Or, garder un esprit critique à l’affût est crucial, car ces IA peuvent non seulement se tromper ou répercuter des biais, mais également dissimuler l’information ou simuler la conformité.

Comment cela ?
La plupart sont des IA connexionnistes pures, qui s’appuient sur des réseaux de neurones artificiels entraînés à partir de quantités phénoménales de données. Elles apprennent ainsi à générer, par des traitements statistiques et probabilistes, des réponses plausibles à toutes nos questions. Leurs performances se sont considérablement accrues avec l’introduction de la technologie « Transformer » en 2017 par Google. Grâce à elle, l’IA est capable d’analyser tous les mots d’un texte en parallèle et de pondérer leur importance pour le sens, ce qui permet notamment une plus grande subtilité dans les réponses.

Mais l’arrière-plan reste probabiliste : si leurs réponses semblent toujours convaincantes et logiques, elles peuvent être complètement fausses. En 2023, des utilisateurs se sont amusés à interroger ChatGPT sur les œufs de vache : l’IA dissertait sur la question sans jamais répondre qu’ils n’existaient pas. Cette erreur a depuis été corrigée grâce à l’apprentissage par renforcement avec retour humain, mais elle illustre bien le fonctionnement sous-jacent de ces outils.

Ce fonctionnement ne pourrait-il être amélioré ?
Certaines sociétés commencent à combiner ces IA connexionnistes, qui apprennent tout de zéro, avec une technologie plus ancienne, l’IA symbolique, dans laquelle on programme explicitement des règles à suivre et des savoirs de base. Il me semble que l’avenir se trouve là, dans l’IA neuro-symbolique. Cette hybridation permet non seulement d’améliorer la fiabilité des réponses, mais aussi de réduire le coût énergétique et financier de l’entraînement.

Le reste de l'entretien est ici
https://www.polytechnique-insights.com/ ... cognitive/


Le passage sur la crainte d'une uniformisation de la pensée m'a fait hurler de rire.

_________________
Ça les gars c'est des astuces de vie que vous ne lirez qu'ici, jamais sur le Discord ou le Facebook qui ne sont après tout que des communautés Mad gentrifiées


Lun Juil 14, 2025 1:25 pm
Profil Site Internet
Afficher les messages postés depuis:  Trier par  
Répondre au sujet   [ 7 messages ] 

Qui est en ligne

Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 1 invité


Vous ne pouvez pas poster de nouveaux sujets
Vous ne pouvez pas répondre aux sujets
Vous ne pouvez pas éditer vos messages
Vous ne pouvez pas supprimer vos messages
Vous ne pouvez pas joindre des fichiers

Rechercher:
Aller à:  
cron
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group.
Designed by STSoftware for PTF.
Traduction par: phpBB-fr.com