"Cela explique pourquoi notre capacité à nous concentrer est devenue un enfer" : les écrans assaillent notre cerveau de l'âge de pierre avec plus d'informations que nous ne pouvons gérer

« Cela explique pourquoi notre capacité à nous concentrer est devenue un enfer » : les écrans assaillent notre cerveau de l’âge de pierre avec plus d’informations que nous ne pouvons gérer

Par Anissa Chauvin



Nous plaisantons souvent en disant que notre capacité d’attention a considérablement diminué ces dernières années avec l’essor des technologies numériques et du divertissement sur écran, mais il existe des données scientifiques solides pour étayer cette observation. En fait, une capacité d’attention plus courte n’est qu’un effet secondaire d’une récente explosion de distractions sur écran, comme le soutient le neurologue et auteur Richard E. Cytowic dans son nouveau livre, « Votre cerveau de l’âge de pierre à l’ère des écrans : faire face à la distraction numérique et à la surcharge sensorielle » (Presses MIT, 2024).

Dans son livre, Cytowic explique que le cerveau humain n’a pas changé de manière significative depuis l’âge de pierre, ce qui nous laisse mal équipés pour gérer l’influence et l’attrait des technologies modernes – en particulier celles propagées par les grandes entreprises technologiques. Dans cet extrait, Cytowic souligne comment notre cerveau a du mal à suivre le rythme fulgurant auquel la technologie, la culture et la société modernes évoluent.


D’un point de vue technique, le cerveau a des limites énergétiques fixes qui dictent la quantité de travail qu’il peut gérer à un moment donné. Se sentir surchargé conduit au stress. Le stress mène à la distraction. La distraction conduit alors à l’erreur. Les solutions évidentes sont soit d’arrêter le flux entrant, soit d’atténuer le stress.

Hans Selye, l’endocrinologue hongrois qui a développé le concept de stress, a déclaré que le stress « n’est pas ce qui vous arrive, mais la façon dont vous y réagissez ». La caractéristique qui nous permet de gérer le stress avec succès est la résilience. La résilience est une qualité bienvenue, car toutes les exigences qui vous éloignent de l’homéostasie (la tendance biologique de tous les organismes à maintenir un milieu interne stable) conduisent au stress.

Les distractions devant les écrans sont un candidat idéal pour perturber l’équilibre homéostatique. Bien avant l’avènement des ordinateurs personnels et d’Internet, Alvin Toffler a popularisé le terme « surcharge d’informations » dans son best-seller de 1970, Future Shock. Il a promu la sombre idée d’une éventuelle dépendance humaine à l’égard de la technologie. En 2011, avant que la plupart des gens n’aient un smartphone, les Américains recevaient cinq fois plus d’informations au cours d’une journée typique qu’ils n’en avaient vingt-cinq ans plus tôt. Et maintenant, même les natifs du numérique d’aujourd’hui se plaignent du stress que leur rend constamment présente la technologie.

La surcharge visuelle est plus probablement un problème que la surcharge auditive, car aujourd’hui, les connexions œil-cerveau sont anatomiquement plus nombreuses que les connexions oreille-cerveau d’environ trois fois. La perception auditive importait davantage à nos premiers ancêtres, mais la vision a progressivement pris le pas. Cela pourrait évoquer des scénarios de simulation. Vision a également donné la priorité aux entrées simultanées plutôt qu’aux entrées séquentielles, ce qui signifie qu’il y a toujours un délai entre le moment où les ondes sonores frappent vos tympans et le moment où le cerveau peut comprendre ce que vous entendez. L’entrée simultanée de la vision signifie que le seul délai pour la saisir est le dixième de seconde nécessaire pour voyager de la rétine au cortex visuel primaire, V1.

Les smartphones l’emportent facilement sur les téléphones conventionnels pour des raisons anatomiques, physiologiques et évolutives. La limite de ce que j’appelle la saisie sur écran numérique est la capacité du cristallin de chaque œil à transférer des informations à la rétine, le géniculé latéral, et de là à V1, le cortex visuel primaire. Le dilemme moderne dans lequel nous nous sommes plongés repose sur le flux, le flux d’énergie rayonnante qui bombarde nos sens de loin et de près. Pendant des éons, le seul flux que les récepteurs sensoriels humains ont dû transformer en perception impliquait les images, les sons et les goûts du monde naturel. Depuis cette époque jusqu’à aujourd’hui, nous n’avons pu détecter qu’une infime partie du rayonnement électromagnétique total dont les instruments nous indiquent objectivement la présence. Les particules cosmiques, les ondes radio et les signaux des téléphones portables nous traversent inaperçus parce que nous ne disposons pas de capteurs biologiques pour les détecter. Mais nous sommes très sensibles au flux manufacturé qui a débuté au XXe siècle et qui s’ajoute au flux de fond naturel.

Notre surabondance numérique auto-créée nous frappe sans cesse, et nous ne pouvons nous empêcher de la remarquer et d’en être distraits. Le stockage d’un smartphone se mesure en dizaines de gigaoctets et le disque dur d’un ordinateur en téraoctets (1 000 gigaoctets), tandis que les volumes de données sont calculés en pétaoctets (1 000 téraoctets), en zettaoctets (1 000 000 000 000 de gigaoctets) et au-delà. Pourtant, les humains possèdent toujours le même cerveau physique que nos ancêtres de l’âge de pierre. Il est vrai que notre biologie physique est incroyablement adaptative et que nous habitons toutes les niches de la planète. Mais elle ne peut pas suivre la vitesse vertigineuse à laquelle évoluent la technologie, la culture et la société modernes. La capacité d’attention occupe une place importante dans les débats sur la quantité d’exposition aux écrans que nous pouvons gérer, mais personne ne prend en compte le coût énergétique impliqué.

Une étude très citée menée par Microsoft Research Canada affirme que la capacité d’attention est tombée en dessous de huit secondes – moins que celle d’un poisson rouge – et cela expliquerait pourquoi notre capacité de concentration est devenue un enfer. Mais cette étude présente des lacunes et la « capacité d’attention » est un terme familier plutôt que scientifique. Après tout, les cerveaux de certaines personnes de l’âge de pierre ont la capacité de composer une symphonie, de surveiller le flux de données provenant d’un réacteur nucléaire ou d’une station spatiale, ou de résoudre des problèmes mathématiques jusqu’alors insolubles. Il existe des différences individuelles dans la capacité et l’aptitude à faire face aux événements stressants. Pour rendre hommage à la Californie, Gloria Mark de l’Université de Californie à Irvine et ses collègues de Microsoft ont mesuré la capacité d’attention dans des environnements quotidiens. En 2004, les gens mettaient en moyenne 150 secondes avant de passer d’un écran à un autre. En 2012, ce temps était tombé à 47 secondes. D’autres études ont reproduit ces résultats. Nous sommes déterminés à être interrompus, dit Mark, si ce n’est par les autres, du moins par nous-mêmes. L’épuisement de notre commutation est « comme si un réservoir d’essence fuyait ». Elle a découvert qu’un simple graphique ou un minuteur numérique qui incite les gens à prendre des pauses périodiques est très utile.

Les neurosciences distinguent l’attention soutenue, l’attention sélective et l’attention alternée. L’attention soutenue est la capacité de se concentrer sur quelque chose pendant une période prolongée. L’attention sélective témoigne de l’aptitude à filtrer les distractions concurrentes pour s’en tenir à la tâche à accomplir. L’attention alternée est la capacité de passer d’une tâche à une autre et de revenir là où vous vous étiez arrêté. En termes de coût énergétique engendré par un déplacement répété de l’attention tout au long de la journée, je crains que nous ayons atteint la limite de l’âge de pierre du cerveau. Le dépasser entraîne une pensée brumeuse, une concentration réduite, un blocage de la pensée, des pertes de mémoire ou des étriers de précision, tout outil en vient rapidement à ressembler à une extension de soi-même. La même chose s’applique aux appareils intelligents. Il y a deux siècles, lorsque les premières locomotives à vapeur atteignaient une vitesse fulgurante de trente milles à l’heure, les alarmistes avertissaient que le corps humain ne pouvait pas supporter de telles vitesses. Depuis lors, les voitures, les méthodes de communication, les avions à réaction et l’électronique toujours plus rapides se sont répandus dans la culture et ont été absorbés dans la vie quotidienne. Autrefois, moins de nouvelles technologies apparaissaient chaque décennie, moins de personnes vivaient et la société était beaucoup moins connectée qu’elle ne l’est aujourd’hui.

En revanche, l’invention, la prolifération et l’évolution de la technologie numérique ont mis le statu quo en constante évolution. Contrairement à leurs homologues analogiques tels qu’un téléphone fixe ou un tourne-disque, les appareils intelligents sollicitent et retiennent notre attention à plusieurs reprises. Nous nous sommes conditionnés à répondre aux SMS et aux appels entrants dès leur arrivée. Certes, les emplois et les moyens de subsistance dépendent parfois d’une réponse immédiate. Pourtant, nous payons le prix en termes de coûts énergétiques en raison d’un changement et d’un recentrage constants de notre attention.

Clause de non-responsabilité

Cet extrait a été modifié pour des raisons de style et de longueur. Réimprimé avec la permission de « Votre cerveau de l’âge de pierre à l’ère de l’écran : faire face à la distraction numérique et à la surcharge sensorielle » par Richard E. Cytowic, publié par MIT Press. Tous droits réservés.


Votre cerveau de l’âge de pierre à l’ère des écrans : faire face à la distraction numérique et à la surcharge sensorielle —

Le cerveau humain n’a pas beaucoup changé depuis l’âge de pierre, encore moins au cours des trente années seulement de l’ère de l’écran. C’est pourquoi, selon le neurologue Richard Cytowic – qui, selon Oliver Sacks, « a changé notre façon de concevoir le cerveau humain » – nos cerveaux sont si mal équipés pour résister aux incursions des grandes technologies.

Anissa Chauvin