Journaliste indépendante spécialisée dans les thématiques environnementales et économiques. Elle a créé une collection de livres (avec Pierre Rabhi, les Presses du Châtelet) : Carnets d’alerte, et un média du même nom : www.carnetsdalerte.fr . Six livres ont déjà été publiés : Pour en finir avec la faim dans le monde, Les Semences, un patrimoine vital en voie de disparition, Les Excès de la finance ou l’art de la prédation légalisée, L’eau que nous sommes, Vivre mieux sans croissance, L’Humain au risque de l’intelligence artificielle. Chaque enquête dure plus d’un an : plus de 60 personnes interrogées, chaque chiffre sourcé. Auparavant, Juliette Duquesne a travaillé une dizaine d’années pour le journal de TF1. Pour en savoir plus : www.julietteduquesne.fr ; www.carnetsdalerte.fr
Quel est le risque principal de l’I.A. ? Comment s’en protéger ?
Il est difficile de répondre à cette question. La pollution du numérique est un risque majeur de l’intelligence artificielle. Aujourd’hui, c’est la fabrication des équipements (ordinateurs, téléphones, téléviseurs…) qui est la principale source de pollution dans le numérique (émissions de gaz à effet de serre, consommation d’eau et de métaux.) L’intelligence artificielle n’est pas directement concernée par ces équipements. Néanmoins, les réseaux sociaux, les nombreuses applications comme Waze, les enceintes connectées, les futures villes intelligentes ou les possibles voitures autonomes utilisent des programmes d’intelligence artificielle. Et c’est pour utiliser ces programmes au quotidien que nous achetons toujours plus d’équipements informatiques.
Un autre risque essentiel de l’intelligence artificielle : l’humain. Voilà d’ailleurs pourquoi nous avons décidé d’intituler notre ouvrage, l’Humain au risque de l’intelligence artificielle. Afin de fabriquer un programme d’IA, dans de nombreux cas, nous passons des mots aux nombres, nécessaires à la mise en données et en algorithmes, puis au codage informatique. Chaque étape schématise et fige la réalité. Les mots sont plus subtils que les nombres.
Malheureusement, ce n’est pas parce qu’une invention ne fonctionne pas ou mal que son utilisation s’arrête. Dans le secteur de la finance, on continue d’utiliser les multiples modèles algorithmiques en partie à l’origine de la crise des subprimes…
Même lorsqu’ils sont inefficients, ces modèles ont de nombreux effets sur nos vies. Ils rigidifient et rendent moins souples les interactions au sein de la société. Dans des secteurs tous les jours plus nombreux, nous échangeons avec des machines qui ne s’adaptent pas comme peuvent le faire des humains. Chacun doit entrer dans une case, sans considération de la situation et du cas particulier. Par conséquent, la principale crainte n’est pas d’être dominé par des machines, mais de simplifier nos comportements afin d’interagir avec un environnement où les programmes d’IA sont devenus légion. Cet appauvrissement est dénoncé depuis déjà plusieurs années par différents acteurs de la société civile comme le philosophe Jean-Michel Besnier.
Si cet article vous plait, pensez à faire un don. Le fonctionnement du site a un coût. Il n’y a pas de publicité.
Vous avez un bouton « don » sur le côté. Merci de votre participation quel que soit le montant
Les usages actuels de l’IA nous standardisent et nous conforment.
Utiliser ces programmes nécessite d’en connaître les limites. Nous pourrions très bien, comme le préconisent plusieurs chercheurs en intelligence artificielle, mettre en place des procédures de validation des algorithmes. Débattre -avant sa généralisation- de l’intérêt et des effets d’un programme d’IA paraît essentiel. Nombreux sont ceux à même réclamer des moratoires dans certains domaines comme la reconnaissance faciale ou l’analyse des sentiments.
Est-ce que les Gafam risquent de supplanter la démocratie ?
Les algorithmes créés afin de mettre en avant la publicité, notamment par les Gafam, favorisent les fake news qui se répandent plus rapidement, nous maintiennent dans nos bulles de filtres et surfent sur les contenus colériques et clivants, beaucoup plus partagés. Il n’est pas toujours simple de distinguer ce qui provient de la construction de l’algorithme de ce qui vient de nos comportements et de nos préférences. Les algorithmes accentuent et amplifient des comportements déjà présents.
Les fake news ont environ deux fois plus de chances d’être relayées sur Twitter et le sont six fois plus rapidement. Les posts exprimant la colère dominent souvent les réseaux sociaux. Une étude chinoise montre que ceux qui relaient la colère se propagent plus rapidement sur un réseau social semblable à celui de Twitter.
Au cours de notre enquête, nous avons pu constater que les grands acteurs de l’Internet recherchent du flux et des interactions à seule fin de proposer de la publicité. Puisque les fake news génèrent plus d’interactions, les Gafam n’ont aucune raison de les restreindre, sauf s’ils y sont obligés par les marques qui ne souhaitent plus être associées à des contenus tendancieux ou par les autorités.
Ces fake news et les propos clivants polluent le débat public et peuvent entraver le bon déroulement de nos démocraties.
Autre élément qui pollue nos démocraties : cette surveillance par les Gafam ou par les États encourage une paranoïa généralisée de la population. Les citoyens ne savent pas où et par quel biais, leurs données ou leurs comportements sont surveillés. Cette paranoïa fragilise grandement nos démocraties. Je ne sais pas si les Gafam supplantent la démocratie, en tout cas, ces multinationales la déstabilisent.
Pour lire l’article REFLETS n°42 pages 8 à 10