Dans une interview accordée à Lusa, le neuroscientifique Leor Zmigrod prévient que, sauf si les chatbots dotés d’IA incarnent des valeurs qui importent à tous, ils peuvent se révéler des agents de radicalisation très dangereux et efficaces.
Leo Zmigrod est l’auteur du livre récemment paru « Le cerveau idéologique », qui explore les liens entre l’idéologie politique et la biologie du cerveau.
Interrogée sur l’impact des algorithmes qui « alimentent » ce que nous voyons sur Internet, la scientifique exprime son inquiétude.
« Ce qui m’inquiète le plus, c’est que, lorsque nous analysons les algorithmes qui régissent les réseaux sociaux, ils nous fournissent des informations extrêmement binaires, des informations en noir et blanc », déclare le scientifique considéré comme un pionnier dans le domaine des neurosciences politiques.
« Pour moi, quand je constate que, psychologiquement, les esprits les plus vulnérables sont aussi les plus rigides, cela ressemble à une catastrophe, car on place les esprits les plus vulnérables et les plus rigides dans un environnement, celui des médias sociaux, qui leur fournit les informations les plus rigides », souligne la neuroscientifique et chercheuse.
Par conséquent, « c’est précisément un lieu quasiment conçu pour radicaliser les gens ».
En ce sens, « nous devons être profondément préoccupés par ces algorithmes et la réglementation qui les sous-tend, ainsi que par l’IA [intelligence artificielle] », poursuit-il.
« Et c’est un sujet de préoccupation majeur car, bien que les réseaux sociaux soient déjà conçus pour nous fournir les informations et les contenus les plus extrêmes qui nous effraient ou nous mettent en colère, les chatbots d’IA ne sont pas là uniquement pour nous fournir des informations passives ; ils nous engagent réellement dans des conversations actives », souligne Leor Zmigrod.
« À moins d’être très vigilants et de lutter pour que ces “chatbots” d’IA incarnent les valeurs qui nous sont chères, ils peuvent se révéler des agents de radicalisation très dangereux et très efficaces », souligne-t-il.
Par conséquent, « le cerveau idéologique dans un contexte d’IA représente une situation très dangereuse ».
Selon la neuroscientifique, « Le cerveau idéologique », son premier livre, est « une invitation à reconsidérer sa façon d’aborder les idéologies et la vie en général, et à prendre conscience que les idéologies que l’on choisit peuvent en réalité nuire à son propre corps. »
Autrement dit, « cela peut les rendre moins flexibles, moins sensibles et, au final, moins libres », dit-il.
« J’espère donc qu’en montrant la science du cerveau idéologique, ce qui arrive aux cerveaux lorsqu’ils se radicalisent, nous pourrons véritablement réimaginer les conséquences de l’extrémisme et ne plus considérer l’extrémisme comme une vertu morale, mais plutôt réaliser qu’aborder la vie d’une manière plus flexible et anti-idéologique est une force qui nous rend plus résilients, qui nous protège, car nous vivons dans des sociétés qui essaient constamment de nous radicaliser », conclut Leor Zmigrod.



