© Rasmus Himmelstrup

Il est né avec une achromatopsie. Autrement dit, Neil Harbisson ne voit le monde qu’en noir, blanc et gris. En 2004, le Britannique a subi une opération : il s’est fait implanter une puce avec une antenne à l’arrière de la tête. À défaut de voir les couleurs, cela lui permet de les entendre. L’antenne détecte les couleurs de son environnement, qui sont ensuite transmises sous forme de vibrations à l’os du crâne, produisant ainsi des sons. Le Britannique est le premier cyborg officiellement reconnu par un gouvernement, un statut confirmé sur ses papiers d’identité. Et il sera aussi présent au coup d’envoi du projet Esch2022 « The Sound of Data » le 1er mai à la Rockhal. Science.lu s’est entretenu avec lui en amont de l’événement.

 

Neil, tu as subi une intervention chirurgicale au cours de laquelle on t’a implanté une antenne et une puce. Depuis lors, tu te considères comme un cyborg, c’est-à-dire un être hybride composé d’un organisme biologique et d’une technologie. Est-ce que tu t’es senti cyborg immédiatement après l’opération ou est-ce que cela a été un processus plus long ?

La transition pour devenir cyborg a été pour moi un processus plutôt long, qui n’était pas directement lié à l’opération. Quand j’ai réalisé que la technologie faisait partie de mon identité, qu’elle influençait mon esprit et ma pensée, j’ai commencé à me sentir cyborg. Dans un premier temps, je m’étais senti « eyeborg », car j’ai d’abord considéré cette pièce rapportée comme un œil supplémentaire. En fait, ce n’est pas un œil, mais une antenne.

Tu es musicien, tu as aussi étudié le piano. Est-ce un avantage pour ta technologie de cyborg, qui consiste à convertir les couleurs en sons ?

Je dirais que globalement, c’est plutôt un inconvénient d’avoir une formation musicale. Parce qu’on est justement entraîné à entendre le son en douze notes. Il est donc plus difficile d’accepter les micro-intervalles, c’est-à-dire les tons situés entre les notes classiques. Et les couleurs comprennent plein de micro-intervalles de ce genre. De ce point de vue, je pense qu’il est d’abord plus facile pour les personnes qui n’ont pas de bagage musical d’appréhender les micro-intervalles.

Comment fonctionne ton capteur ? À quelle distance dois-tu t’approcher d’un objet pour l’entendre ? Et l’antenne est-elle toujours active ou peut-elle être débranchée et rebranchée ?

La caméra détecte en permanence les couleurs dominantes devant moi. Je n’ai donc pas forcément besoin de m’approcher très près d’un objet pour en connaître les couleurs. On m’a implanté dans l’os du crâne une puce qui est reliée à la caméra par un câble à fibre optique. La technologie fait donc partie intégrante de mon squelette.

Les couleurs retentiraient-elles de la même manière pour tout le monde ou le spectre de couleurs tel que nous le connaissons correspond-il également à la gamme musicale ?

Le spectre chromatique que je peux percevoir va de l’infrarouge à l’ultraviolet. Et c’est sur ce spectre lumineux que le son est basé également. Par exemple, le rouge est fa, le bleu est do dièse et le magenta est ré dièse. À ce jour, je suis la seule personne à porter une telle antenne. Le son ou la vibration dans l’os déclenché(e) par chaque couleur n’a cependant pas changé depuis le début.

Peux-tu améliorer tes facultés grâce à des mises à jour ?

Oui, après l’implantation de mon antenne en 2004, j’ai eu une extension en 2008, qui a élargi le spectre chromatique à 360 couleurs. Plus tard, j’ai reçu une mise à niveau pour la perception des rayonnements infrarouges et ultraviolets. Depuis, je dispose également d’une connexion Internet, ce qui me permet d’identifier les couleurs des quatre coins du monde.  Alors que les organes humains normaux vieillissent, la technologie, elle, ne cesse de progresser. Cela veut dire que plus je vieillis en tant que cyborg, mieux je perçois la réalité. Sachant que je peux toujours mettre à niveau mon capteur.

Tu entends aussi des couleurs que l’œil humain ne perçoit pas, comme l’infrarouge et l’ultraviolet. Est-ce que cela présente des avantages pratiques ?

Oui, cela me relie à d’autres animaux qui peuvent également percevoir ces couleurs. Et cela me rapproche aussi davantage de la nature. Le fait que je puisse identifier la lumière ultraviolette me permet aussi d’entendre, par exemple, comment rayonne le soleil. Autrement dit, de savoir si c’est une bonne ou une mauvaise journée pour bronzer...

L’antenne est-elle ton seul organe artificiel ?

Non, j’ai un autre implant dans le genou, une sorte de boussole. Je sais donc toujours où se trouve le nord géographique. De plus, j’ai aussi développé un organe pour reconnaître le passage du temps. Il s’agit d’un bandeau sensoriel qui permet à celui qui le porte de ressentir le déroulement de l’horloge de 24 heures sur son tour de tête. Et j’ai également déjà réalisé des projets avec les dents. Par exemple, j’ai une dent implantée qui me permet de communiquer en code morse avec d’autres personnes qui en sont également pourvues.

Tu n’es pas seulement un cyborg, mais aussi un artiste. Dans quelle mesure ton art est-il influencé par tes facultés de cyborg ?

Le développement de ces organes constitue un art à proprement parler – on appelle cela l’art cyborg. Il s’agit d’élargir nos facultés de perception. De plus, le développement de ces sens peut bien sûr être mis à profit pour s’exprimer artistiquement. Dans mon cas, le capteur me permet de créer de la musique à partir de couleurs – ou de visages. Je peux donc produire des concerts à partir de visages. Inversement, je peux aussi peindre ce que j’entends. En effet, il y a un son pour chaque couleur. 

Le 1er mai, tu viens à Belval pour « Science meets Music », le coup d’envoi du projet Esch2022 « The Sound of Data ». À quoi peut s’attendre le public lors de ton Futuristic Talk ?

Mon intervention portera sur l’art cyborg. Je veux montrer aux gens les possibilités d’expression offertes par ces organes et sens supplémentaires. Parce que cela crée aussi de nouvelles formes de culture et d’art. L’écoute des couleurs peut en outre influencer d’autres domaines, comme la mode par exemple. Cela vaut pour mon antenne, mais aussi pour de nombreux autres organes créés artificiellement.

En quoi consiste l’événement Science meets Music ?

 

Le foyer de la Rockhal accueillera de 14 h à 18 h une « Science Fair » similaire par exemple au Science Festival. Familles, enfants et adultes pourront expérimenter, vivre et tout simplement s’amuser dans des ateliers interactifs alliant musique et science. 

Au « Club » de la Rockhal se déroulera un programme parallèle destiné davantage aux adultes. En plus d’un événement de réseautage, sont programmés :

  • une conférence visionnaire de Neil Harbisson, le premier cyborg reconnu capable d’entendre les couleurs à l’aide d’un capteur dans la tête ;
  • une prestation de Neil Harbisson et Pol Lombarte au cours de laquelle les battements de cœur du public seront sonifiés sur scène ;
  • une performance-conférence du musicien et scientifique Valery Vermeulen, qui expliquera comment il génère de la musique à partir de données ;
  • une table ronde sur le thème de l’évènement.

L’événement à la Rockhal prévoit également un concert avec Pol Lombarte...

Oui, Pol est aussi un cyborg. Il fait de l’art à l’aide des battements de son cœur. Pol s’est fait implanter des électrodes qui lui permettent de transmettre les battements de son cœur en direct sur Internet. Son projet artistique consiste donc à commercialiser les battements de son cœur. Nous allons faire de la musique ensemble lors de l’événement à la Rockhal, Pol à l’aide des battements de son cœur et moi en utilisant les couleurs des visages des spectateurs.

Le projet The Sound of Data porte sur la sonification des données, c’est-à-dire sur la transformation des données en sons. Que penses-tu des possibilités de la sonification ?

Tout ce qui nous entoure génère des vibrations, donc tout se prête à la sonification. Nous pouvons rencontrer et écouter de la musique partout. Je le fais avec des couleurs, Pol avec ses battements de cœur et d’autres personnes encore utilisent d’autres possibilités pour cela. Rien n’oblige à composer de la musique, puisque nous en sommes déjà entourés partout.

 

La sonification est en fait une visualisation pour les oreilles. On prend un ensemble de données, une sorte d'information, et on en tire des sons. C'est exactement ce que fait Neil Harbisson avec son antenne.  Le cyborg a implanté un capteur de couleurs dans son crâne qui, à l'aide d'un logiciel spécial, perçoit les ondes lumineuses et les couleurs et les transforme en sons. Dans le cas de Neil Harbisson, la sonification a donc lieu dans la tête.

Interview: Uwe Hentschel

 

Tu trouveras plus d'informations su sur le cyborg Neil Harbisson ici

Tu trouverastoutes les informations sur le Sound of Data ici.

Esch2022 – Entretien avec Valery Vermeulen The Sound of Data : Comment les données scientifiques se transforment en musique

Dans le cadre du projet « The Sound of Data », qui débute le 1er mai à la Rockhal, le mathématicien et musicien électron...

FNR
Smart Schoul 2025 Former les citoyens du numérique de demain 

Comment inspirer les étudiants pour l’informatique ? Une réponse pourrait être le projet Smart Schoul 2025 de l’Universi...

Virtual Metabolic Human Database Une base de données regroupant les connaissances sur le métabolisme humain

Un consortium international mené par le Luxembourg Centre for Systems Biomedicine (LCSB) a développé une base de données...