Mis à jour le 14/05/2024
Dans tous les secteurs, l'intelligence artificielle (IA) s'impose comme une technologie incontournable, suscitant un vif intérêt pour son potentiel transformationnel. Sa capacité à analyser et interpréter les données la rend particulièrement précieuse, ouvrant de nouvelles perspectives dans des domaines aussi variés que la santé, l'industrie et les services. L'intégration de l'IA dans le domaine de l'audition représente une avancée majeure, promettant d'améliorer considérablement la vie des personnes malentendantes.
Nous avons eu l'opportunité d'échanger en profondeur avec trois experts du secteur pour explorer les implications de cette révolution technologique dans le monde des aides auditives : Mikael Menard, Docteur en acoustique et responsable de la formation chez Signia ; Julien Nizard, directeur de l'audiologie au sein de Starkey ; et Jean-Baptiste Lemasson, directeur audiologie et formations chez GN Hearing France.
Trois visions du secteur qui soulignent un avenir étroitement lié à l’IA pour les appareils auditifs, et l'importance cruciale de cette technologie pour améliorer la qualité de vie des personnes malentendantes. En combinant expertise audiologique et avancées technologiques, le secteur trace la voie vers des solutions auditives toujours plus performantes et personnalisées. L'intégration de l'IA promet non seulement d'améliorer l'audition, mais également de favoriser une meilleure santé globale et un bien-être accru pour tous.
Ce que l’on peut retenir en 3 points clés :
L'intelligence artificielle permet aujourd’hui de nombreuses applications dans des secteurs très différents. Avec une accélération des progrès de l’IA dans les années à venir, quelle est selon vous la place future de cette technologie pour les aides auditives, dans le contexte que l’on connaît ?
Mikael Menard : “Je pense que dans le futur, l'intelligence artificielle va de plus en plus se développer dans les aides auditives. Aujourd'hui, il y a cette image un peu magique de l'IA pour le grand public. On voit des ChatGPT, des images transformées, des vidéos où l’on change des visages... Cette IA à laquelle nous avons accès dans notre quotidien nécessite des capacités de calcul énormes, réservées à des unités de traitement puissantes. Aujourd’hui l’une des contraintes majeures pour une aide auditive, c’est la consommation. Pour obtenir des appareils de toute petite taille, il nous faut de toutes petites piles et de toutes petites batteries avec pour contrainte une autonomie d’au moins une journée, un peu comme sur un smartphone moderne.
Avec cette contrainte d’autonomie, mais aussi de puissance embarquée et de dimension d’appareil, on ne peut pas aujourd’hui faire les prouesses d’un ChatGPT dans une aide auditive. On ne sera pas capable de le faire demain non plus à priori. Cela viendra peut-être dans plusieurs années. En tout cas, c'est une des directions qui va être prise, intégrer de plus en plus d'IA qui pourrait à terme par exemple, extraire une voix dans une conversation bruyante et la rendre parfaite, ou encore faire de la traduction instantanée. C'est ce vers quoi on aimerait tendre dans le futur.
Aujourd'hui, on est capable de faire des choses fantastiques en terme de traitement dans une aide auditive. On n'a pas attendu non plus l'IA pour cela. Mais c'est vrai que si on parle d'évolution dans le futur, l'intégration de l’IA va nous permettre de faire encore mieux que ce qu'on est capable de faire aujourd'hui. Même si parfois on a des messages marketing qui sont bien tournés et peuvent faire penser le contraire, on n'est pas encore capable de faire de l'IA suffisamment efficace aujourd’hui dans une aide auditive pour en révolutionner le fonctionnement. Mais c'est l'avenir en tout cas, et on va dans cette direction.”
En quoi l'IA pourrait-elle jouer un rôle crucial pour améliorer les aides auditives et les services associés ?
Jean Baptiste Lemasson : “A terme, l’IA pourrait être utilisée au niveau de la reconnaissance vocale pour guider l’utilisateur, et ordonner le traitement de signal. Le patient pourrait parler à son aide auditive pour lui demander certaines fonctions, dans des phrases clés que l’IA pourrait reconnaître.
Par exemple : "Est-ce que vous pouvez répéter cette phrase ?”. Selon l'environnement dans lequel elle est prononcée, si c'est dans le calme, dans le bruit avec plusieurs personnes ou non, l'aide auditive pourrait modifier le traitement de signal en reconnaissant la voix de l'utilisateur. Elle pourrait nous créer une base de données personnalisée de l'utilisateur pour optimiser l’appareil par rapport à ses intentions d'écoute.
Selon moi, la première étape, ce serait d'avoir une liberté dans la personnalisation du traitement de signal. Parce que la parole dans le bruit n'est pas perçue de la même manière par tout le monde. Lorsque l’on a un fan de Jul et un fan de musique classique, la musique de l’un est peut-être du bruit pour l'autre... L'IA pourrait, en fonction de l'appétence de l'utilisateur, savoir ce qui est réellement du bruit, de la parole, l'environnement, pour l'utilisateur lui-même. Donc, en fait, elle pourrait apporter cette notion de personnalisation qui est si importante.”
Mikael Ménard : “En fait, l'IA devrait aider à mieux comprendre ce que le patient attend dans son écoute. Actuellement, c'est compliqué de le faire. On n'est pas encore capable d'évaluer cela par de simples algorithmes. Donc, il faudra intégrer une intelligence qui sera capable d’évaluer la pertinence et l’intérêt que peut voir tel ou tel son, telle ou telle voix pour le porteur de l’aide auditive.Cela va passer par de l'intelligence, mais peut-être aussi par des capteurs un peu différents dans les appareils. On est déjà en train d'intégrer ce type d’éléments qui vont aider l'appareil à faire les bons choix. L’IA, c'est exactement cela : c'est aider l'appareil à faire les bons choix dans un environnement donné. Encore une fois, ce n'est pas si facile que cela, du simple point de vue acoustique, de savoir ce qui est intéressant ou ce qui ne l'est pas.”
Julien Nizard : “Grâce à l’IA, on devrait pouvoir améliorer l’expérience des utilisateurs au niveau de la rééducation auditive, la réhabilitation de l'audition. On éduque nos appareils auditifs à reconnaître avec de plus en plus de précision tous les indices acoustiques autour du patient.
Le but d'un appareil auditif, en premier lieu, c’est d'aider le patient à mieux comprendre, notamment en milieu bruyant. C'est là où le patient est le plus gêné. Plus on expose l’IA à ce type de situation, plus on fait grossir notre base de données, pour reconnaître avec de plus en plus de précision les formes acoustiques jugées utiles, de celles jugées inutiles. Cela se fait notamment grâce au machine learning.
Si je prends mon smartphone, il est capable de faire des albums tout seul des photos de mes enfants alors que je ne lui ai rien dit. A force d’en prendre de plus en plus, il finit par les connaître par cœur, et sait les reconnaître même lorsque je ne les avais pas vu sur la photo. Il sait les reconnaître de façon assez incroyable. C'est un peu ce qui se passe dans nos aides auditives. On les expose à plein de données. La musique, le vent, le bruit, la parole utile, la parole inutile... Plus la base de données grossit, plus les réponses acoustiques que va donner l'aide auditive vont être pertinentes. L'intelligence artificielle, c'est ça.”
Mikael Ménard : “Typiquement, si je suis en extérieur à côté d'une route, le bruit des voitures qui passent va me gêner. Si je regarde un Grand Prix de Formule 1 à la télévision, je vais également avoir des bruits de voiture. Acoustiquement, les deux se ressemblent.. Dans un cas, ce son va me gêner, dans l’autre, il est intéressant et fait partie de l'expérience que je vis en regardant le Grand Prix . C'est un peu le type de dilemme que l'on peut avoir aujourd'hui avec l’arbitrage que doit faire l’aide auditive. L'intelligence artificielle va nous aider pour résoudre ces problématiques-là.”
L’IA aiderait donc à améliorer considérablement le confort de vie des malentendants ?
Julien Nizard : “En réalité avec l'intelligence artificielle, on ne veut pas seulement entendre mieux, on veut aussi étendre le champ d’action de l’appareil auditif. Cela fait très longtemps qu'on a des preuves scientifiques établies de liens entre une mauvaise audition et un impact sur la santé globale. Lorsque l’on entend moins bien, cela a des comorbidités sur les risques de démence et de sénilité, avec le développement précoce dusyndrome d'Alzheimer. C'est totalement associé à la perte d'audition. Il y a un risque supplémentaire d'isolement, et c'est normal. Il y a également plus de risques de chute : plus j'entends mal, plus mon manque d'équilibre est exacerbé.
Le lien est établi scientifiquement entre perte d'audition et sédentarité. C'est un peu le nouveau tabagisme au niveau des impacts. Quand on reste sédentaire, on bouge moins, et on peut développer des risques de diabète, de cancer, d'AVC... On a aussi un lien établi entre perte d'audition et risque de complications cardiovasculaires. Le tableau est super large et tout cela est très étayé scientifiquement, donc on sait que lorsque l’on entend moins bien, on a un risque de moins bien vivre.
Ce qu'on veut faire avec l'appareil auditif, c'est une passerelle vers une meilleure audition bien sûr, c'est notre but premier, mais également vers le bien-être général et la santé globale. On veut que l'appareil auditif dispose de fonctionnalités de santé connectées pour aider le patient à mieux vivre.”
De quelle manière est-ce que cela pourrait se traduire ?
Jean Baptiste Lemasson : “On a lancé une étude dernièrement sur l'analyse de la texture de la voix pour anticiper les risques de maladies neurodégénératives comme Alzheimer ou Parkinson. Par le changement de texture de la voix, l'intelligence artificielle pourrait, via les aides auditives, analyser le comportement de la voix de l'utilisateur pour nous donner des informations, comme le fait que le patient soit susceptible de développer une autre pathologie. L'intelligence artificielle à ce niveau dans l'analyse acoustique pourrait jouer un rôle intéressant.
On peut imaginer vraiment beaucoup de choses avec le son, dont soit on ne peut pas encore parler, soit on ignore encore les aboutissements. Par exemple, on travaille beaucoup sur les enregistrements des présidents américains aujourd'hui décédés. On a énormément d'enregistrements parce que ce sont des personnes publiques, politiques, dont on connaît la santé globale parce qu'ils ont été très suivis. Et donc, on peut faire des analyses à postériori incroyables. L'objectif à terme avec l’IA, ce sera d'être capables de réaliser ce genre de suivi en live.”
Quels exemples concrets pourrait-on imaginer de la manière dont l'IA pourrait être utilisée pour améliorer l'expérience des utilisateurs dans leur quotidien ?
Julien Nizard : “Le risque de chute par exemple. On a mis en place un algorithme intelligent qui va analyser l'activité des capteurs de mouvement qu'on a intégrés dans les appareils auditifs pour reconnaître la chute du patient. Si l'appareil auditif seul tombe, il ne se passe rien. Mais si le patient tombe, et qu’il porte ses appareils sur lui, l'appareil va détecter une chute du patient et, à travers le smartphone auquel il est connecté, va être en capacité de déclencher une alerte par SMS à trois personnes de confiance, qui vont avoir l'information de la chute du patient et sa position géographique.
Ce sont des algorithmes intelligents que l'on a éduqués pour qu'ils soient à même de reconnaître la chute. Comme toute intelligence artificielle, ça fonctionne sur de la data. Plus il y a de data, plus il y a de données, plus ce sera pertinent, réactif, efficace. Et plus le temps passe, plus on a des données, plus l'appareil est performant pour reconnaître la chute.
L'appareil aujourd'hui on s'en sert également dans le tracking d'activité et d'engagement, ça veut dire qu'on met des fonctionnalités pour dire au patient s'il a été suffisamment en mouvement, s'il a suffisamment porté ses appareils auditifs, s'il a atteint ses objectifs. Lui envoyer des rappels pour une prise de médicaments, lui envoyer des rappels au travers des autres objets connectés ou du smartphone s’il n’a pas mis ses appareils... etc.”
Mikael Menard : Moi je suis bluffé aujourd'hui de voir ce qu'on est capable de faire avec l'IA. Il n'y a pas longtemps, les Beatles ont sorti un titre alors que John Lennon est décédé et que les enregistrements sont de mauvaise qualité. L’IA a pu tout recréer de A à Z. Il faut juste imaginer cela appliqué aux aides auditives dans un environnement bruyant, comme un patient au restaurant. Si l’IA est capable de travailler le signal en temps réel et de le redonner aux patients qui ne comprend pas la voix en face de lui, s’il est capable d’extraire le signal vocal en le recréant artificiellement et en nettoyant le bruit autour, là, on aurait une solution fantastique et révolutionnaire.
On pourrait dans un futur idéal arriver à intégrer des systèmes capables de presque mieux comprendre qu'un humain, et de redonner l'information au patient. Peut-être d’ailleurs que les normo-entendants porteront aussi ces oreillettes parce que dans certains environnements, on sera bien plus à l'aise avec cela qu'avec nos simples oreilles.
L'IA devrait s'intégrer à différentes étapes pour aider l'appareil à effectuer son travail et améliorer le traitement. Aujourd’hui c'est presque encore de l'utopie d'en arriver à ça, mais c'est une des directions qu'on essaie de prendre.”*
Actualités sur la même thématique
Appareils auditifs et vieillissement : un stigma à dépasser
Presbyacousie : une rééducation du cerveau possible !
En 2050, un humain sur 10 aura besoin d’un appareil auditif selon l'OMS
La perte d’audition serait-elle réversible ?
Journée nationale de l'audition 2023 : les oreilles des enfants doivent être aussi protégées
Les risques auditifs chez les jeunes dans le monde
Auracast, la nouvelle technologie de transmission audio Bluetooth
Étude inédite : Un Français sur quatre souffre de perte auditive
Thérapie génique pour retrouver l'audition : Où en est la recherche ?
La 23ème édition de la journée nationale de l’audition aura lieu le 12 mars 2020
Les dernières actualités
VivaSon en mission humanitaire à Madagascar
Starkey Genesis AI : une nouvelle gamme innovante pour Starkey
Retour sur l’émission « Envoyé spécial » du 7 septembre 2023 sur les aides auditives
Signia iX (Integrated Xperience) : les nouveaux appareils auditifs de SIgnia
Déposer un commentaire