L’intelligence artificielle ou comment tromper le cerveau humain
Auteur(s)
Date
Partager
Résumé
Celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
Auteur(s)
Date
Partager
Résumé
Celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
L’intelligence artificielle (IA), telle qu’elle est définie depuis les années 50, est censée copier ou surpasser le cerveau humain. Et, comment mieux le faire qu’en rivalisant avec sa plus belle performance : le mensonge, l’invention de ce qui n’est pas mais qui est crédible et confère du pouvoir ? Il existe déjà des robots « conversationnels » avec qui vous pouvez dialoguer sans vous apercevoir que vous ne parlez pas avec un conseiller humain, des algorithmes qui produisent des œuvres d’art, peinture ou musique, « originales » ou imitant Bach ou Rembrandt, des fabriques de scénarios ou articles tout à fait convaincants… Voire des deep fakes, des faux « profonds », montages d’images où une personne célèbre peut, avec sa « vraie » voix et de « vrais » mouvements de lèvres, prononcer un discours imaginaire (à moins que vous n’incrustiez la tête de celle qui vous fait fantasmer sur le corps de quelque actrice de porno).
Le faux de ce type est hyper-persuasif, parce qu’il synthétise un nombre énorme d’éléments familiers à notre cerveau – images, mots – pour les recombiner en leur donnant le sens souhaité. L’intelligence artificielle pourrait-elle maîtriser l’art de faire-croire, base de tout pouvoir politique ?
Fake News d’en haut
Depuis 2016 (élection de Trump, Brexit, etc.) il est à la mode d’attribuer aux fake news, informations fabriquées, éventuellement relayées par des robots en ligne et au service de théories trompeuses, le pouvoir de faire basculer les élections. Les choses ne sont pas si simples parce que l’adhésion supposée de électeurs à ces trucages traduit surtout leur étonnante méfiance à l’égard de l’information venue d’en haut, des élites ou des médias, donc l’échec des vieilles fabriques du consensus.
Pourtant, l’intelligence artificielle a de quoi inquiéter. D’une part en démocratisant la production de faux vraisemblables (images, déclarations, nouvelles), et en facilitant leur diffusion (contenu du message et réseau d’amis factices, pour l’illusion maximale). D’autre part, en adaptant davantage sa rhétorique à ses destinataires supposés : chacun recevrait, via les réseaux sociaux, ce qu’il serait le plus susceptible de croire à propos de tel homme politique, tel danger de tel produit, telle anticipation économique… Donc ce qui comblerait le mieux ses attentes ou préjugés, décelées grâce aux Big Data. On passerait de chacun suivant ses médias à chacun suivant ses fantasmes.
Des chercheurs d’OpenAI (le centre d’Elton Musk pour la recherche en Intelligence Artificielle qui entend « changer le destin de l’espèce ») déclarent que, presque par inadvertance, ils viennent d’inventer un système qui engendrerait à la chaîne des informations imaginaires mais parfaitement crédibles. Au point de saturer toute tentative de vérification ? De permettre la propagande absolue ?
Comment démarquer le vrai du faux ?
Là où les législations (telle notre loi nationale « infox »), les innombrables équipes de fact checking des médias classiques ou les ONG spécialisées ne parviennent plus à endiguer le flot du doute et de la falsification, que faire ? Appeler l’armée. C’est ce qui se passe, outre-Atlantique, du moins pour son centre de recherche, le Darpa. Cette agence fédérale annonce qu’elle va étudier une technologie destinée à détecter, attribuer (chercher un coupable) et caractériser (attaque politique, escroquerie…) les fausses nouvelles. Toujours grâce à l’IA qui, non contente d’égaler nos performances intellectuelles, établirait la ligne de démarcation entre le vrai et le faux, avec les implications politiques que l’on imagine.
Celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
Résumons : demain lutte de l’épée (armes du faux) et de la cuirasse (accréditation), entre des machines à produire des illusions et des machines à établir l’irréfutable ? Opérations de déstabilisation versus des mesures d’établissement de la vérité (il y aurait donc littéralement des ministères pour ça !).
Ce sont, bien sûr, des scénarios de science-fiction : les GAFA engendrant des illusions à volonté, les États s’accaparant [le] monopole de la réalité… Mais nous apprenons au moins une chose : celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
L’intelligence artificielle (IA), telle qu’elle est définie depuis les années 50, est censée copier ou surpasser le cerveau humain. Et, comment mieux le faire qu’en rivalisant avec sa plus belle performance : le mensonge, l’invention de ce qui n’est pas mais qui est crédible et confère du pouvoir ? Il existe déjà des robots « conversationnels » avec qui vous pouvez dialoguer sans vous apercevoir que vous ne parlez pas avec un conseiller humain, des algorithmes qui produisent des œuvres d’art, peinture ou musique, « originales » ou imitant Bach ou Rembrandt, des fabriques de scénarios ou articles tout à fait convaincants… Voire des deep fakes, des faux « profonds », montages d’images où une personne célèbre peut, avec sa « vraie » voix et de « vrais » mouvements de lèvres, prononcer un discours imaginaire (à moins que vous n’incrustiez la tête de celle qui vous fait fantasmer sur le corps de quelque actrice de porno).
Le faux de ce type est hyper-persuasif, parce qu’il synthétise un nombre énorme d’éléments familiers à notre cerveau – images, mots – pour les recombiner en leur donnant le sens souhaité. L’intelligence artificielle pourrait-elle maîtriser l’art de faire-croire, base de tout pouvoir politique ?
Fake News d’en haut
Depuis 2016 (élection de Trump, Brexit, etc.) il est à la mode d’attribuer aux fake news, informations fabriquées, éventuellement relayées par des robots en ligne et au service de théories trompeuses, le pouvoir de faire basculer les élections. Les choses ne sont pas si simples parce que l’adhésion supposée de électeurs à ces trucages traduit surtout leur étonnante méfiance à l’égard de l’information venue d’en haut, des élites ou des médias, donc l’échec des vieilles fabriques du consensus.
Pourtant, l’intelligence artificielle a de quoi inquiéter. D’une part en démocratisant la production de faux vraisemblables (images, déclarations, nouvelles), et en facilitant leur diffusion (contenu du message et réseau d’amis factices, pour l’illusion maximale). D’autre part, en adaptant davantage sa rhétorique à ses destinataires supposés : chacun recevrait, via les réseaux sociaux, ce qu’il serait le plus susceptible de croire à propos de tel homme politique, tel danger de tel produit, telle anticipation économique… Donc ce qui comblerait le mieux ses attentes ou préjugés, décelées grâce aux Big Data. On passerait de chacun suivant ses médias à chacun suivant ses fantasmes.
Des chercheurs d’OpenAI (le centre d’Elton Musk pour la recherche en Intelligence Artificielle qui entend « changer le destin de l’espèce ») déclarent que, presque par inadvertance, ils viennent d’inventer un système qui engendrerait à la chaîne des informations imaginaires mais parfaitement crédibles. Au point de saturer toute tentative de vérification ? De permettre la propagande absolue ?
Comment démarquer le vrai du faux ?
Là où les législations (telle notre loi nationale « infox »), les innombrables équipes de fact checking des médias classiques ou les ONG spécialisées ne parviennent plus à endiguer le flot du doute et de la falsification, que faire ? Appeler l’armée. C’est ce qui se passe, outre-Atlantique, du moins pour son centre de recherche, le Darpa. Cette agence fédérale annonce qu’elle va étudier une technologie destinée à détecter, attribuer (chercher un coupable) et caractériser (attaque politique, escroquerie…) les fausses nouvelles. Toujours grâce à l’IA qui, non contente d’égaler nos performances intellectuelles, établirait la ligne de démarcation entre le vrai et le faux, avec les implications politiques que l’on imagine.
Celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
Résumons : demain lutte de l’épée (armes du faux) et de la cuirasse (accréditation), entre des machines à produire des illusions et des machines à établir l’irréfutable ? Opérations de déstabilisation versus des mesures d’établissement de la vérité (il y aurait donc littéralement des ministères pour ça !).
Ce sont, bien sûr, des scénarios de science-fiction : les GAFA engendrant des illusions à volonté, les États s’accaparant [le] monopole de la réalité… Mais nous apprenons au moins une chose : celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.
La désinformation repose sur la fabrication d’un faux message puis sa diffusion de façon qui semble neutre et dans un but stratégique. Il s’agit toujours d’agir négativement sur l’opinion publique pour affaiblir un camp. Ce camp peut être un pays, les tenants d’une idéologie, un groupe ou une entreprise...(on imagine mal une désinformation qui ferait l’éloge de ceux qu’elle vise).
Quand ceux qui n’ont plus rien partagent le symbole du grotesque et de la vengeance, leur défi nihiliste nous annonce un singulier retour du conflit.
Nous subissons la terrible loi dite de Brandolini « La quantité d'énergie nécessaire pour réfuter du baratin est beaucoup plus importante que celle qui a permis de le créer".
Le postulat victimaire. Il consiste à évaluer une idée ou une affirmation à l’aune de la souffrance qu’elle cause à telle communauté ou de l’affront à telle identité imaginaire. Les idées ne sont plus soumises au critère de vérification mais de réception : ça fait mal ? D’où le besoin d’en contrôler la diffusion.