GT IA - DT Occitanie
Artificial intelligence and disability: too much promise, yet too little substance? - AI and Ethics
Much has been written about the potential of artificial intelligence (AI) to support, and even transform, the lives of disabled people. It is true that many advances have been made, ranging from robotic arms and other prosthetic limbs supported by AI, decision support tools to aid clinicians and the disabled themselves, and route planning software for those with visual impairment. Many individuals are benefiting from the use of such tools, improving our accessibility and changing lives. But what are the true limits of such tools? What are the ethics of allowing AI tools to suggest different courses of action, or aid in decision-making? And does AI offer too much promise for individuals? I have recently undergone a life changing accident which has left me severely disabled, and together with my daughter who is blind, we shall explore the day-to-day realities of how AI can support, and frustrate, disabled people. From this, we will draw some conclusions as to how AI software and technology might best be developed in the future.
Original link
Survey: Improving Document Accessibility from the Blind and Visually Impaired User’s Point of View
There are thousands of digital documents available on the internet, but many of them are not accessible for blind and visually impaired people. To find out what is of importance as to the reading of text and the navigation within documents from the user&
8217
;s point...
Original link
GTnum
Scol_IA
“Renouvellement des pratiques numériques et usages créatifs du numérique et IA”. Projet soutenu par la Direction du Numérique Educatif (DNE) et DRANE de l'Académie de Nice
Original link
Intelligence artificielle pour le décodage de commandes motrices de sujets handicapés, grâce à des interfaces cerveau-machine à usage chronique | Theses.fr
Les interfaces cerveau-machines (ICMs) peuvent améliorer considérablement la qualité de vie des patients tétraplégiques en créant une voie de communication alternative et en compensant la perte de la fonction motrice. Cette thèse se concentre sur les systèmes ICM basés sur l'ECoG qui ont montré un fort potentiel pour fournir une communication efficace, tout en étant moins invasif que les enregistrements intracorticaux. Cependant, la plupart des systèmes actuels souffrent d'une faible précision de décodage. Les modèles basés sur l'apprentissage profond (DL) se sont avérés efficaces dans de nombreuses tâches et apparaissent donc comme une solution possible pour créer une représentation robuste des signaux cérébraux. Dans cette thèse, nous avons étudié le potentiel des méthodes basées sur l'apprentissage profond pour le décodage de la translation de la main à partir de signaux ECoG.Tout d'abord, nous avons évalué plusieurs modèles de DL sur des données de l'essai clinique BCI et Tétraplégie (NCT02550522) enregistrées avec un sujet tétraplégique, pour prédire la translation de la main en 3D à partir des caractéristiques temps-fréquence des signaux ECoG. Nous avons commencé l'étude avec un perceptron multicouche prenant en entrée des caractéristiques vectorisées. Ensuite, nous avons proposé des réseaux neuronaux convolutifs (CNN), qui prennent des entrées organisées en matrices se rapprochant de la disposition spatiale des électrodes, et des cellulles long short-term memory (LSTM) pour analyser les informations temporelles. Les résultats ont montré que les architectures basées sur les réseaux neuronaux convolutifs sont plus performantes que le modèle multilinéaire actuel sur l'ensemble des données ECoG analysées, avec une augmentation de la similarité cosinus moyenne allant jusqu'à 60 %. La meilleure architecture utilisait un modèle CNN pour analyser la représentation spatiale des caractéristiques temps-fréquence, suivi d'un LSTM exploitant le caractère séquentiel des données.Dans le cas des ICM, l'accès à de grands jeux de données est limité car les enregistrements sont longs et fatigants pour le patient. Pour étudier l'impact de la taille du jeu de données sur les performances de décodage, la quantité de données d'entraînement a été progressivement augmentée de 5 à 140 minutes de signal dans différentes expériences de calcul, en se concentrant sur les exigences de taille du jeu de données et les effets d'adaptation du patient. Nos résultats ont révélé que les modèles de DL augmentent les performances pour presque toutes les tailles de jeu de données d'entraînement. Ce résultat valide les modèles de DL comme bons candidats pour les applications de la vie réelle. Nous avons également observé une meilleure qualité des données pour les enregistrements effectués plus tardivement, ce qui indique un progrès du patient pour générer des signaux informatifs.Le DL a prouvé son utilité pour la vision par ordinateur, principalement dans le cas de l'apprentissage de bout en bout, permettant l'extraction de représentations plus adaptées à une tâche spécifique. Nous avons évalué des méthodes utilisant des signaux ECoG bruts en tant qu'extension naturelle de l'analyse des caractéristiques créées à la main. Les paramètres de la transformée en ondelettes continue utilisée pour extraire la représentation temps-fréquence ont été optimisés de bout en bout pour voir le bénéfice potentiel de l'ajustement des paramètres à ce problème spécifique. Les résultats ont montré qu'il n'y avait que peu ou pas de bénéfice à entraîner les ondelettes en termes de similarité en cosinus, alors que les modèles de bout en bout nécessitent plus de puissance de calcul. Cela peut suggérer que l'entraînement des paramètres de la première couche peut être moins bénéfique et plus difficile dans le cas d'une BCI basée sur l'ECoG.
Original link
Handicap visuel, IA et documents pédagogiques
Les récentes avancées en matière d’intelligence artificielle ouvrent la voie au développement de solutions qui adaptent automatiquement des supports pédagogiques et qui favorisent ainsi l’autonomie des étudiant·e·s en situation de handicap visuel lors de leurs apprentissages.
Original link
Exploration des synergies entre les technologies immersives et l’Intelligence Artificielle pour un Enseignement Inclusif
Cet article s’inscrit dans un travail de recherche plus global, un projet de thèse CIFRE, qui a débuté en janvier 2024. Le projet de recherche vise à explorer l’impact de l’intégration de la Réalité Virtuelle et l’Intelligence Artificielle sur les différents âges d’apprenants en termes d’inclusion et d’accessibilité. L’objectif est de comprendre comment ces technologies redéfinissent l’éducation à l’ère numérique, et concevoir par la suite un environnement virtuel pour la recherche. Dans cet article, nous présentons le projet de thèse et un aperçu du cadre théorique sur lequel il s’appuiera, ainsi que la méthodologie de recherche à poursuivre.
Original link
Automating autism: Disability, discourse, and Artificial Intelligence
As Artificial Intelligence (AI) systems shift to interact with new domains and populations, so does AI ethics: a relatively nascent subdiscipline that frequently concerns itself with questions of “fairness” and “accountability.” This fairness-centred approach has been criticized for (amongst other things) lacking the ability to address discursive, rather than distributional, injustices. In this paper I simultaneously validate these concerns, and work to correct the relative silence of both conventional and critical AI ethicists around disability, by exploring the narratives deployed by AI researchers in discussing and designing systems around autism. Demonstrating that these narratives frequently perpetuate a dangerously dehumanizing model of autistic people, I explore the material consequences this might have. More importantly, I highlight the ways in which discursive harms—particularly discursive harms around dehumanization—are not simply inadequately handled by conventional AI ethics approaches, but actively invisible to them. I urge AI ethicists to critically and immediately begin grappling with the likely consequences of an approach to ethics which focuses on personhood and agency, in a world in which many populations are treated as having neither. I suggest that this issue requires a substantial revisiting of the underlying premises of AI ethics, and point to some possible directions in which researchers and practitioners might look for inspiration.
Original link