L'Intelligence_Artificielle_et_les_aides_auditives__Regards_croisés_d'experts
L'Intelligence_Artificielle_et_les_aides_auditives__Regards_croisés_d'experts

L'Intelligence Artificielle et les aides auditives : Regards croisés d'experts

14-05-2024 - Etudes et Recherche Par Ruben Krief

Mis à jour le 14/05/2024

Dans tous les secteurs, l'intelligence artificielle (IA) s'impose comme une technologie incontournable, suscitant un vif intérêt pour son potentiel transformationnel. Sa capacité à analyser et interpréter les données la rend particulièrement précieuse, ouvrant de nouvelles perspectives dans des domaines aussi variés que la santé, l'industrie et les services. L'intégration de l'IA dans le domaine de l'audition représente une avancée majeure, promettant d'améliorer considérablement la vie des personnes malentendantes. 

Nous avons eu l'opportunité d'échanger en profondeur avec trois experts du secteur pour explorer les implications de cette révolution technologique dans le monde des aides auditives : Mikael Menard, Docteur en acoustique et responsable de la formation chez Signia ; Julien Nizard, directeur de l'audiologie au sein de Starkey ; et Jean-Baptiste Lemasson, directeur audiologie et formations chez GN Hearing France.

Trois visions du secteur qui soulignent un avenir étroitement lié à l’IA pour les appareils auditifs, et l'importance cruciale de cette technologie pour améliorer la qualité de vie des personnes malentendantes. En combinant expertise audiologique et avancées technologiques, le secteur trace la voie vers des solutions auditives toujours plus performantes et personnalisées. L'intégration de l'IA promet non seulement d'améliorer l'audition, mais également de favoriser une meilleure santé globale et un bien-être accru pour tous.

Ce que l’on peut retenir en 3 points clés :

  • L'IA devrait jouer un rôle majeur dans l'évolution des aides auditives, offrant une multitude d'applications pratiques pour les utilisateurs au quotidien.
  • Grâce à l'IA, les aides auditives seront personnalisées en fonction des préférences et des environnements sonores spécifiques de chaque individu, permettant notamment d'identifier les sons pertinents, d'optimiser la rééducation auditive et de détecter des chutes ou signes précurseurs de problèmes de santé.
  • Malgré les avancées révolutionnaires envisagées pour les malentendants grâce à l'IA, son intégration dans les aides auditives reste complexe en raison des contraintes de taille et de consommation énergétique.

Notre interview de trois experts des fabricants Signia, Resound et Starkey

L'intelligence artificielle permet aujourd’hui de nombreuses applications dans des secteurs très différents. Avec une accélération des progrès de l’IA dans les années à venir, quelle est selon vous la place future de cette technologie pour les aides auditives, dans le contexte que l’on connaît ?

Image
Mikael Menard, Docteur en acoustique et responsable de la formation chez Signia

Mikael Menard : “Je pense que dans le futur, l'intelligence artificielle va de plus en plus se développer dans les aides auditives. Aujourd'hui, il y a cette image un peu magique de l'IA pour le grand public. On voit des ChatGPT, des images transformées, des vidéos où l’on change des visages... Cette IA à laquelle nous avons accès dans notre quotidien nécessite des capacités de calcul énormes, réservées à des unités de traitement puissantes. Aujourd’hui l’une des contraintes majeures pour une aide auditive, c’est la consommation. Pour obtenir des appareils de toute petite taille, il nous faut de toutes petites piles et de toutes petites batteries avec pour contrainte une autonomie d’au moins une journée, un peu comme sur un smartphone moderne. 

Avec cette contrainte d’autonomie, mais aussi de puissance embarquée et de dimension d’appareil, on ne  peut pas aujourd’hui faire les prouesses d’un ChatGPT dans une aide auditive. On ne sera pas capable de le faire demain non plus à priori. Cela viendra peut-être dans plusieurs années. En tout cas, c'est une des directions qui va être prise, intégrer de plus en plus d'IA qui pourrait à terme par exemple, extraire une voix dans une conversation bruyante et la rendre parfaite, ou encore faire de la traduction instantanée. C'est ce vers quoi on aimerait tendre dans le futur.

Aujourd'hui, on est capable de faire des choses fantastiques en terme de traitement dans une aide auditive. On n'a pas attendu non plus l'IA pour cela. Mais c'est vrai que si on parle d'évolution dans le futur, l'intégration de l’IA va nous permettre de faire encore mieux que ce qu'on est capable de faire aujourd'hui. Même si parfois on a des messages marketing qui sont bien tournés et peuvent faire penser le contraire, on n'est pas encore capable de faire de l'IA suffisamment efficace aujourd’hui dans une aide auditive pour en révolutionner le fonctionnement. Mais c'est l'avenir en tout cas, et on va dans cette direction.”

“Aujourd'hui, il y a cette image un peu magique de l'IA pour le grand public.”

En quoi l'IA pourrait-elle jouer un rôle crucial pour améliorer les aides auditives et les services associés ?

Image
Jean-Baptiste Lemasson, directeur audiologie et formations chez GN Hearing France

Jean Baptiste Lemasson : “A terme, l’IA pourrait être utilisée au niveau de la reconnaissance vocale pour guider l’utilisateur, et ordonner le traitement de signal. Le patient pourrait parler à son aide auditive pour lui demander certaines fonctions, dans des phrases clés que l’IA pourrait reconnaître.  

Par exemple : "Est-ce que vous pouvez répéter cette phrase ?”. Selon l'environnement dans lequel elle est prononcée, si c'est dans le calme, dans le bruit avec plusieurs personnes ou non, l'aide auditive pourrait modifier le traitement de signal en reconnaissant la voix de l'utilisateur. Elle pourrait nous créer une base de données personnalisée de l'utilisateur pour optimiser l’appareil par rapport à ses intentions d'écoute.  

Selon moi, la première étape, ce serait d'avoir une liberté dans la personnalisation du traitement de signal. Parce que la parole dans le bruit n'est pas perçue de la même manière par tout le monde. Lorsque l’on a un fan de Jul et un fan de musique classique, la musique de l’un est peut-être du bruit pour l'autre... L'IA pourrait, en fonction de l'appétence de l'utilisateur, savoir ce qui est réellement du bruit, de la parole, l'environnement, pour l'utilisateur lui-même. Donc, en fait, elle pourrait apporter cette notion de personnalisation qui est si importante.”

“L’intelligence artificielle, c'est aider l'appareil à faire les bons choix dans un environnement donné.”

Mikael Ménard : “En fait, l'IA devrait aider à mieux comprendre ce que le patient attend dans son écoute. Actuellement, c'est compliqué de le faire. On n'est pas encore capable d'évaluer cela par de simples algorithmes. Donc, il faudra intégrer une intelligence qui sera capable d’évaluer la pertinence et l’intérêt que peut voir tel ou tel son, telle ou telle voix pour le porteur de l’aide auditive.Cela va passer par de l'intelligence, mais peut-être aussi par des capteurs un peu différents dans les appareils. On est déjà en train d'intégrer ce type d’éléments qui vont aider l'appareil à faire les bons choix. L’IA, c'est exactement cela : c'est aider l'appareil à faire les bons choix dans un environnement donné. Encore une fois, ce n'est pas si facile que cela, du simple point de vue acoustique, de savoir ce qui est intéressant ou ce qui ne l'est pas.”

Image
Julien Nizard, directeur de l'audiologie au sein de Starkey

Julien Nizard : “Grâce à l’IA, on devrait pouvoir améliorer l’expérience des utilisateurs au niveau de la rééducation auditive, la réhabilitation de l'audition. On éduque nos appareils auditifs à reconnaître avec de plus en plus de précision tous les indices acoustiques autour du patient.  

Le but d'un appareil auditif, en premier lieu, c’est d'aider le patient à mieux comprendre, notamment en milieu bruyant. C'est là où le patient est le plus gêné. Plus on expose l’IA à ce type de situation, plus on fait grossir notre base de données, pour reconnaître avec de plus en plus de précision les formes acoustiques jugées utiles, de celles jugées inutiles. Cela se fait notamment grâce au machine learning.  

Si je prends mon smartphone, il est capable de faire des albums tout seul des photos de mes enfants alors que je ne lui ai rien dit. A force d’en prendre de plus en plus, il finit par les connaître par cœur, et sait les reconnaître même lorsque je ne les avais pas vu sur la photo. Il sait les reconnaître de façon assez incroyable. C'est un peu ce qui se passe dans nos aides auditives. On les expose à plein de données. La musique, le vent, le bruit, la parole utile, la parole inutile... Plus la base de données grossit, plus les réponses acoustiques que va donner l'aide auditive vont être pertinentes. L'intelligence artificielle, c'est ça.”

Mikael Ménard : “Typiquement, si je suis en extérieur à côté d'une route, le bruit des voitures qui passent va me gêner. Si je regarde un Grand Prix de Formule 1 à la télévision, je vais également avoir des bruits de voiture. Acoustiquement, les deux se ressemblent.. Dans un cas, ce son va me gêner, dans l’autre, il est intéressant et fait partie de l'expérience que je vis en regardant le Grand Prix . C'est un peu le type de dilemme que l'on peut avoir aujourd'hui avec l’arbitrage que doit faire l’aide auditive. L'intelligence artificielle va nous aider pour résoudre ces problématiques-là.”

“Ce qu'on veut faire avec l'appareil auditif, c'est une passerelle vers une meilleure audition bien sûr, c'est notre but premier, mais également vers le bien-être général et la santé globale.”

L’IA aiderait donc à améliorer considérablement le confort de vie des malentendants ?  

Julien Nizard : “En réalité avec l'intelligence artificielle, on ne veut pas seulement entendre mieux, on veut aussi étendre le champ d’action de l’appareil auditif. Cela fait très longtemps qu'on a des preuves scientifiques établies de liens entre une mauvaise audition et un impact sur la santé globale. Lorsque l’on entend moins bien, cela a des comorbidités sur les risques de démence et de sénilité, avec le développement précoce dusyndrome d'Alzheimer. C'est totalement associé à la perte d'audition. Il y a un risque supplémentaire d'isolement, et c'est normal. Il y a également plus de risques de chute : plus j'entends mal, plus mon manque d'équilibre est exacerbé.  

Le lien est établi scientifiquement entre perte d'audition et sédentarité. C'est un peu le nouveau tabagisme au niveau des impacts. Quand on reste sédentaire, on bouge moins, et on peut développer des risques de diabète, de cancer, d'AVC... On a aussi un lien établi entre perte d'audition et risque de complications cardiovasculaires. Le tableau est super large et tout cela est très étayé scientifiquement, donc on sait que lorsque l’on entend moins bien, on a un risque de moins bien vivre.  

Ce qu'on veut faire avec l'appareil auditif, c'est une passerelle vers une meilleure audition bien sûr, c'est notre but premier, mais également vers le bien-être général et la santé globale. On veut que l'appareil auditif dispose de fonctionnalités de santé connectées pour aider le patient à mieux vivre.”

“L'intelligence artificielle pourrait analyser le comportement de la voix de l'utilisateur pour nous donner des informations, comme le fait que le patient soit susceptible de développer une autre pathologie.”

De quelle manière est-ce que cela pourrait se traduire ?  

Jean Baptiste Lemasson : “On a lancé une étude dernièrement sur l'analyse de la texture de la voix pour anticiper les risques de maladies neurodégénératives comme Alzheimer ou Parkinson. Par le changement de texture de la voix, l'intelligence artificielle pourrait, via les aides auditives, analyser le comportement de la voix de l'utilisateur pour nous donner des informations, comme le fait que le patient soit susceptible de développer une autre pathologie. L'intelligence artificielle à ce niveau dans l'analyse acoustique pourrait jouer un rôle intéressant.

On peut imaginer vraiment beaucoup de choses avec le son, dont soit on ne peut pas encore parler, soit on ignore encore les aboutissements. Par exemple, on travaille beaucoup sur les enregistrements des présidents américains aujourd'hui décédés. On a énormément d'enregistrements parce que ce sont des personnes publiques, politiques, dont on connaît la santé globale parce qu'ils ont été très suivis. Et donc, on peut faire des analyses à postériori incroyables. L'objectif à terme avec l’IA, ce sera d'être capables de réaliser ce genre de suivi en live.”
 

Quels exemples concrets pourrait-on imaginer de la manière dont l'IA pourrait être utilisée pour améliorer l'expérience des utilisateurs dans leur quotidien ?

Julien Nizard : Le risque de chute par exemple. On a mis en place un algorithme intelligent qui va analyser l'activité des capteurs de mouvement qu'on a intégrés dans les appareils auditifs pour reconnaître la chute du patient. Si l'appareil auditif seul tombe, il ne se passe rien. Mais si le patient tombe, et qu’il porte ses appareils sur lui, l'appareil va détecter une chute du patient et, à travers le smartphone auquel il est connecté, va être en capacité de déclencher une alerte par SMS à trois personnes de confiance, qui vont avoir l'information de la chute du patient et sa position géographique.

Ce sont des algorithmes intelligents que l'on a éduqués pour qu'ils soient à même de reconnaître la chute. Comme toute intelligence artificielle, ça fonctionne sur de la data. Plus il y a de data, plus il y a de données, plus ce sera pertinent, réactif, efficace. Et plus le temps passe, plus on a des données, plus l'appareil est performant pour reconnaître la chute.  

L'appareil aujourd'hui on s'en sert également dans le tracking d'activité et d'engagement, ça veut dire qu'on met des fonctionnalités pour dire au patient s'il a été suffisamment en mouvement, s'il a suffisamment porté ses appareils auditifs, s'il a atteint ses objectifs. Lui envoyer des rappels pour une prise de médicaments, lui envoyer des rappels au travers des autres objets connectés ou du smartphone s’il n’a pas mis ses appareils... etc.”

“On pourrait à l’avenir arriver à intégrer des systèmes capables de presque mieux comprendre qu'un humain, et de redonner l'information au patient.”

Mikael Menard : Moi je suis bluffé aujourd'hui de voir ce qu'on est capable de faire avec l'IA. Il n'y a pas longtemps, les Beatles ont sorti un titre alors que John Lennon est décédé et que les enregistrements sont de mauvaise qualité. L’IA a pu tout recréer de A à Z. Il faut juste imaginer cela appliqué aux aides auditives dans un environnement bruyant, comme un patient au restaurant. Si l’IA est capable de travailler le signal en temps réel et de le redonner aux patients qui ne comprend pas la voix en face de lui, s’il est capable d’extraire le signal vocal en le recréant artificiellement et en nettoyant le bruit autour, là, on aurait une solution fantastique et révolutionnaire.  

On pourrait dans un futur idéal arriver à intégrer des systèmes capables de presque mieux comprendre qu'un humain, et de redonner l'information au patient. Peut-être d’ailleurs que les normo-entendants porteront aussi ces oreillettes parce que dans certains environnements, on sera bien plus à l'aise avec cela qu'avec nos simples oreilles.  

L'IA devrait s'intégrer à différentes étapes pour aider l'appareil à effectuer son travail et améliorer le traitement. Aujourd’hui c'est presque encore de l'utopie d'en arriver à ça, mais c'est une des directions qu'on essaie de prendre.”*

Concept d'une aide auditive du futur, générée via l'IA générative Midjourney V6

Image
Concept d'une aide auditive du futur, générée via l'IA générative Midjourney V6
Ruben Krief, Audioprothésiste et responsable audiologie
Ruben Krief
Audioprothésiste et responsable audiologie
Diplômé du CNAM à Paris en 2015 d'un Diplôme d'Etat Audioprothésiste, Ruben débute en tant qu'audio dans le centre auditif VivaSon République, à Paris. Rapidement c'est l'aspect technique et scientifique de la profession qui l'intéresse le plus et décide d'approfondir ses connaissances en audiologie. Attiré par l'impression 3D et les techniques d'appareillage de pointe, il a fait de la mesure in vivo sa spécialité en cabine. En tant que Responsable audiologie, Ruben Krief assure une mission d'intérêt pédagogique au sein de VivaSon pour transmettre ses connaissances et meilleures pratiques aux audioprothésistes du réseau. Cette mission présente aussi un aspect matériel pour les tests de nouveaux produits ainsi qu'une dimension relationnelle primordiale pour pérenniser l'échange avec les fournisseurs et nos équipes de terrain dans toute la France.

Déposer un commentaire

Actualités sur la même thématique

Image
Journée nationale de l'audition 2023 : les oreilles des enfants doivent être aussi protégées
14-03-2023 - Etudes et Recherche Par Aurélie HADJADJ

Journée nationale de l'audition 2023 : les oreilles des enfants doivent être aussi protégées

La Journée nationale de l’audition s’est tenue le jeudi 9 mars, au cours de laquelle l’association JNA a présenté les résultats de l’enquête menée par l’Ifop sur les habitudes d’audition des enfants de moins de 10 ans. Retour sur ces chiffres exclusifs et les messages préventifs des professionnels de santé pour protéger l’ouïe des plus jeunes.
Image
Auracast, la nouvelle expérience audio connectée Bluetooth
22-07-2022 - Etudes et Recherche Par Aurélie HADJADJ

Auracast, la nouvelle technologie de transmission audio Bluetooth

C’est une petite révolution dans le monde de la connectivité et de l’audition : Auracast est une nouvelle fonctionnalité Bluetooth qui facilite le partage et la diffusion de sources audio. Elle permet à un transmetteur audio de diffuser du son vers un nombre illimité de récepteurs équipés du Bluetooth, situé dans un certain rayon. Parmi ces récepteurs, les aides auditives et les implants cochléaires.
Image
Thérapie génique pour retrouver l'audition : Où en est la recherche ?
09-05-2022 - Etudes et Recherche Par Marcel Ben Soussan

Thérapie génique pour retrouver l'audition : Où en est la recherche ?

Des chercheurs du Massachusetts Institute of Technology (MIT), en lien avec la startup Frequency Therapeutics travaillent sur un nouveau traitement : une thérapie génique pour régénérer les cellules sensorielles. Cette approche pourrait en effet freiner le déclin auditif et restaurer l’audition en recréant les cellules auditives perdues. Cela éviterait à de nombreux patients d’avoir recours à un implant auditif.

Les dernières actualités

Image
Starkey Genesis AI : la nouvelle gamme d'appareils auditifs Starkey
23-10-2023 - Nouveautés et comparatifs d'appareils auditifs Par Aurélie HADJADJ

Starkey Genesis AI : une nouvelle gamme innovante pour Starkey

L'innovation ne cesse de progresser dans le domaine des aides auditives, et Starkey, le fabricant américain, démontre avec Genesis AI qu'il reste un pionnier en la matière. Avec le lancement de sa nouvelle gamme Genesis AI, le leader américain promet une expérience auditive naturelle. Découvrons ensemble ce que cette nouvelle gamme a à offrir.
Image
EnvoyRetour sur l’émission « Envoyé spécial » du 7 septembre 2023 sur les aides auditives
02-10-2023 - Appareillage auditif et audioprothèse Par Stéphanie Le Guillou

Retour sur l’émission « Envoyé spécial » du 7 septembre 2023 sur les aides auditives

Elise Lucet, journaliste bien connue pour sa capacité à aborder des sujets controversés, a récemment mis en lumière le secteur de l’audition dans son émission "Envoyé spécial". Intitulé "Prothèses auditives, arnaques au creux de l’oreille", le sujet a immédiatement soulevé des inquiétudes légitimes parmi les patients.