Une étude fascinante donne un aperçu unique de la façon dont les chiens voient le monde : ScienceAlert

Mettre des chiens mignons dans une machine IRM et regarder leur cerveau tout en elles ou ils regarder des films à la maison peut sembler être un bon moment exubérant juste pour le plaisir. En prime, il peut aussi être pédagogique.

Une équipe de scientifiques a fait exactement cela, en utilisant l’apprentissage automatique pour décoder le traitement visuel qui se déroule dans l’esprit d’une paire de cabots. Ils ont découvert une différence fascinante entre la perception canine et humaine : les chiens sont beaucoup plus attentifs visuellement aux actions, plutôt qu’à qui ou quoi exécute ces actions.

Cela pourrait être une pièce importante du puzzle de la cognition canine, car il révèle ce que le cerveau d’un chien priorise en matière de vision.

“Bien que notre travail soit basé sur seulement deux chiens, il offre une preuve de concept que ces méthodes fonctionnent sur les chiens”, déclare la neuroscientifique Erin Phillipspuis de l’Université Emory, maintenant à Princeton.

“J’espère que cet article aidera à ouvrir la voie à d’autres chercheurs pour appliquer ces méthodes sur les chiens, ainsi que sur d’autres espèces, afin que nous puissions obtenir plus de données et une meilleure compréhension du fonctionnement de l’esprit de différents animaux.”

La recherche, comme l’a noté Phillips, a été menée sur deux chiens, Daisy et Bhubo. L’équipe avait filmé trois vidéos de 30 minutes, à l’aide d’un cardan et d’une perche à selfie, de contenu spécifique aux chiens. Cela comprenait des chiens qui couraient partout et des humains interagissant avec des chiens, leur donnant des animaux de compagnie ou des friandises. D’autres activités comprenaient des véhicules qui passaient, des humains interagissant entre eux, un cerf traversant un chemin, un chat dans une maison et des chiens marchant en laisse.

bhubo le chien se prépare à regarder un film
Bhubo et son humain, Ashwin Sakhardande, se préparent pour un film. Les oreilles de Bhubo sont collées pour maintenir en place des bouchons d’oreille antibruit, car les IRM sont très bruyantes. (Laboratoire de neurosciences cognitives canines Emory)

Daisy et Bhubo ont chacun vu ces films en trois séances de 30 minutes pour un total de 90 minutes, tout en se relaxant sans retenue dans une machine IRMf. Cette réalisation remarquable a été réalisée grâce à l’utilisation de techniques d’entraînement conçues par le psychologue Gregory Berns, qui a réussi pour la première fois à passer une IRM d’un chien complètement éveillé et non retenu il y a dix ans.

Ainsi, les chercheurs ont également pu scanner les cerveaux de Daisy et Bhubo alors qu’ils étaient assis, éveillés, alertes et à l’aise, dans la machine, regardant des films faits maison juste pour eux. Ça sonne plutôt bien, en fait.

“Ils n’avaient même pas besoin de friandises” dit Phillips. “C’était amusant parce que c’est une science sérieuse, et beaucoup de temps et d’efforts y ont été consacrés, mais cela se résumait à ces chiens qui regardaient des vidéos d’autres chiens et d’humains agissant de manière un peu idiote.”

Daisy le chien dans la machine fmri
Daisy le chien faisant son tour dans l’appareil IRMf. Son humaine, Rebecca Beasley, n’est pas représentée. (Laboratoire de neurosciences cognitives canines Emory)

Les données vidéo ont été segmentées par des horodatages pour identifier des classificateurs tels que des objets (tels que des chiens, des humains, des véhicules ou d’autres animaux) ou des actions (telles que renifler, manger ou jouer). Ces informations, ainsi que l’activité cérébrale des deux chiens, ont été introduites dans un réseau de neurones appelé Ivis, conçu pour cartographier l’activité cérébrale de ces classificateurs.

Deux humains ont également regardé les vidéos tout en subissant une IRM ; ces données ont également été communiquées à Ivis.

L’IA a pu mapper les données du cerveau humain sur les classificateurs avec une précision de 99 %, pour les classificateurs d’objets et d’actions. Avec les chiens, Ivis était un peu plus tremblant. Cela n’a pas fonctionné du tout pour les classificateurs d’objets. Cependant, pour les actions, l’IA a mappé l’activité visuelle sur l’activité cérébrale avec une précision comprise entre 75 et 88 %.

“Nous, les humains, sommes très orientés objet” Berns dit. “Il y a 10 fois plus de noms que de verbes en anglais parce que nous avons une obsession particulière pour nommer des objets. Les chiens semblent moins préoccupés par qui ou ce qu’ils voient et plus préoccupés par l’action elle-même.”

Les chiens, a-t-il ajouté, ont des différences significatives dans la façon dont ils perçoivent le monde par rapport aux humains. Ils ne distinguent que les nuances de ce que nous percevrons comme des parties bleues et jaunes du spectre, mais ont une densité plus élevée de récepteurs visuels sensibles au mouvement.

Cela pourrait être dû au fait que les chiens doivent être plus conscients des menaces dans leur environnement que les humains ; ou cela pourrait avoir quelque chose à voir avec la dépendance à d’autres sens; ou peut-être les deux. Les humains sont très orientés vers la vue, mais pour les chiens, leur sens olfactif est le plus puissant, avec une proportion beaucoup plus importante de leur cerveau consacrée au traitement des informations olfactives.

Cartographier l’activité cérébrale à l’entrée olfactive pourrait être une expérience plus délicate à concevoir, mais cela pourrait aussi être instructif. Comme pourrait le faire d’autres recherches plus détaillées sur la perception visuelle des chiens, et potentiellement d’autres animaux à l’avenir.

“Nous avons montré que nous pouvons surveiller l’activité dans le cerveau d’un chien pendant qu’il regarde une vidéo et, au moins dans une certaine mesure, reconstruire ce qu’il regarde”, Berns dit. “Le fait que nous soyons capables de faire cela est remarquable.”

La recherche a été publiée dans le Journal des expériences visualisées.

Leave a Comment

Your email address will not be published.