L’IA nous mène vers une ‘économie de l’intention’ ; non sans risque (étude)

L’IA nous mène vers une ‘économie de l’intention’ ; non sans risque (étude)

“Des outils d’IA sont déjà en développement pour obtenir, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et transformer en marchandises” les décisions à venir des internautes, explique Yaqub Chaudhary, l’un des co-auteurs, du Leverhulme Centre for the Way forward for Intelligence (LCFI) de Cambridge —un centre de recherche interdisciplinaire consacré à l’IA [1].

Ce commerce serait centré sur les intentions des utilisateurs, par exemple leurs futurs achats ou leurs prochains votes. Il irait donc au-delà de la pratique actuelle, qui vise à vendre au plus offrant l’consideration d’un utilisateur, en particulier sur les réseaux sociaux, pour lui soumettre par exemple une publicité ciblée en fonction de ses habitudes de navigation ou de son historique.

Brokers conversationnels anthropomorphes

Concrètement, notre familiarité croissante avec des brokers conversationnels anthropomorphes (chatbots, assistants vocaux, petites amies virtuelles…) basés sur l’IA pourrait permettre aux entreprises qui les gèrent de glaner les données psychologiques et comportementales intimes concernant leurs utilisateurs. Des données qui pourront être utilisées, non seulement pour prédire, mais aussi pour influencer plus facilement leurs intentions, selon les auteurs de cet article publié dans le Harvard Knowledge Science Evaluation.

“Avez-vous songé à aller voir Spiderman ce soir ?” ou “Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ?”, citent les auteurs de l’article comme exemples de recommendations d’un “chatbot”.

Des propositions “à vendre” by way of un système d’enchères en temps réel, qui pourraient aussi concerner un hôtel, la location de voiture ou le vote pour un candidat politique.

Faire commerce des intentions

Cette “économie de l’intention”, comme l’appellent les chercheurs, ouvre la voie à une potentielle “manipulation sociale à l’échelle industrielle”, selon le communiqué qui accompagne cet article.

“Nous devrions commencer à réfléchir à l’affect possible d’un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché”, affirme Jonnie Penn, co-auteur de l’étude.

“Ce que les gens disent lorsqu’ils conversent, la manière dont ils le disent et le sort d’interférences” possibles “sont bien plus intimes que le easy enregistrement des interactions en ligne”, souligne Yaqub Chaudhary.

Les chercheurs remarquent que des entreprises comme OpenAI (ChatGPT), Shopify, Nvidia, Meta ou Apple ont commencé se pencher sur ces “applied sciences persuasives”.