Informations

Classification des signaux EEG

Classification des signaux EEG


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je travaille sur un projet lié à l'interface cerveau-ordinateur et je suis tombé sur ce problème.

Quels sont les outils et techniques utilisés pour classer les signaux EEG extraits du cerveau à l'aide d'un appareil qui, dans mon cas, est le casque mobile Neurosky Mindwave. J'avais besoin d'une vue abstraite de ce que devrait être la conception du système ?

Le signal extrait à l'aide de l'électrode plantée sur le cerveau est constitué de tous les types de signaux EEG présents dans le spectre EEG, c'est-à-dire delta, alpha, bêta, gamma, mu. Comment puis-je le classer ?

J'ai lu certaines des techniques telles que l'utilisation de la transformée de Fourier rapide discrète, puis l'extraction des puissances de bande, mais je ne l'ai pas très bien comprise, alors quelqu'un peut-il m'orienter dans la bonne direction. J'apprécie vraiment votre aide.

Merci.


BCI a grosso modo deux approches différentes pour extraire des caractéristiques. Je vais m'adresser aux deux.

Lorsque l'EEG est enregistré, vous pouvez voir un modèle d'activité dans un canal particulier au fil du temps. C'est le domaine temporel. Le domaine temporel est principalement utilisé pour analyser les potentiels liés aux événements. Une application au sein de BCI est l'orthographe P300. Une matrice de lettres s'affiche et les lettres sont mises en évidence une par une. Chaque fois que la lettre à laquelle vous avez pensé (c.

Le P300 (ou P3) est une déviation positive environ 300-400 millisecondes après la présentation d'un stimulus. L'amplitude du P300 est plus élevée lorsque vous percevez quelque chose que vous attendiez, et plus petite lorsque quelque chose d'inattendu (ou sans surveillance) est vu. L'orthographe P300 est un moyen simple et soigné d'épeler une lettre à la fois (voir aussi Interface cerveau-ordinateur avec EEG : comment nommer le mouvement imaginaire d'un objet non-soi ?)

La transformée de Fourier rapide (FTT), que vous avez demandée, est utilisée pour transformer le domaine temporel en domaine fréquentiel. Chaque signal dans le domaine temporel peut être subdivisé en sinusoïdes simples avec différentes fréquences, amplitudes et phases. Les amplitudes sont également appelées puissance des fréquences. Les fréquences sont regroupées (voir aussi L'ERP indépendant du stimulus a-t-il un sens/existe-t-il ?) et la puissance est corrélée à de nombreux états cognitifs différents (sommeil, attention, etc. Voir aussi Les ondes cérébrales sont-elles des ondes électromagnétiques ?)

Le BCI dans le domaine fréquentiel utilise la puissance d'une bande de fréquence. En focalisant plus ou moins l'attention, diminuant ou augmentant ainsi la puissance dans la bande alpha, vous pouvez par exemple déplacer un curseur sur un écran (également abordé ici : Interface cerveau-ordinateur avec EEG : comment nommer le mouvement imaginaire d'un non- objet de soi ?).

Il existe un troisième domaine, à savoir le domaine temps-fréquence (voir Comment comparer les ondes cérébrales ?) il est utilisé pour les applications BCI.

Pour en savoir plus sur BCI, voir L'interface cerveau-ordinateur EEG est-elle fiable?


5. Conclusions

La classification de l'apprentissage en profondeur a été appliquée avec succès à de nombreuses tâches EEG, notamment l'imagerie motrice, la détection des crises, la charge de travail mentale, la notation du stade du sommeil, le potentiel lié aux événements et les tâches de reconnaissance des émotions. La conception de ces études de réseau approfondies variait considérablement en fonction de la formulation des entrées et de la conception du réseau. Plusieurs ensembles de données publics ont été analysés dans plusieurs études, ce qui nous a permis de comparer directement les performances de classification en fonction de leur conception. En règle générale, les réseaux CNN, RNN et DBN ont surpassé les autres types de réseaux profonds, tels que les SAE et les MLPNN. De plus, CNN a obtenu de meilleurs résultats lors de l'utilisation de valeurs de signal ou d'images (spectrogrammes) comme entrées, tandis que DBN a obtenu de meilleurs résultats lors de l'utilisation de valeurs de signal ou de caractéristiques calculées comme entrées. Nous avons ensuite discuté des recommandations de réseau approfondies pour chaque type de tâche spécifique. Ce diagramme de recommandation a été fourni dans l'espoir qu'il guidera le déploiement de l'apprentissage en profondeur dans les ensembles de données EEG dans les recherches futures. Les conceptions hybrides incorporant des couches convolutives avec des couches récurrentes ou des machines de Boltzmann restreintes se sont révélées prometteuses en termes de précision de classification et d'apprentissage par transfert par rapport aux conceptions standard. Nous recommandons une recherche plus approfondie de ces combinaisons, en particulier le nombre et la disposition des différentes couches, y compris les RBM, les couches récurrentes, les couches convolutives et les couches entièrement connectées. En dehors de la conception du réseau, nous encourageons également d'autres recherches pour comparer la façon dont les réseaux profonds interprètent l'EEG brut par rapport à l'EEG débruité, car cela n'a pas encore été spécifiquement évalué.


Classification du comportement cognitif à partir des signaux EEG du cuir chevelu

L'électroencéphalographie (EEG) est devenue de plus en plus précieuse en dehors de son utilisation traditionnelle en neurologie. L'EEG est maintenant utilisé pour le diagnostic neuropsychiatrique, l'évaluation neurologique des lésions cérébrales traumatiques, la neurothérapie, les jeux, le neurofeedback, la pleine conscience et l'entraînement à l'amélioration cognitive. La tendance à augmenter le nombre d'électrodes EEG, le développement de nouvelles méthodes analytiques et la disponibilité de grands ensembles de données ont créé un défi d'analyse de données pour trouver le "signal d'intérêt" qui transmet le plus d'informations sur l'effort cognitif en cours. En conséquence, nous comparons trois types courants de mesures de synchronie neuronale qui sont appliquées à l'analyse de la puissance EEG, au verrouillage de phase et au couplage phase-amplitude pour évaluer quelle mesure analytique fournit la meilleure séparation entre les signaux EEG qui ont été enregistrés, tandis que les sujets sains ont effectué huit tests cognitifs. tâches-Test d'apprentissage verbal de Hopkins et sa version retardée, test de Stroop, test de modalité des chiffres de symboles, test d'association de mots oraux contrôlés, test de marquage de piste, test de portée des chiffres et test de rétention visuelle de Benton. Nous constatons que des trois méthodes analytiques, le couplage phase-amplitude, en particulier thêta (4-7 Hz)-gamma élevé (70-90 Hz) obtenu à partir des électrodes EEG frontales et pariétales fournit à la fois la plus grande séparation entre l'EEG pendant les tâches cognitives et également la plus grande précision de classification entre les paires de tâches. Nous constatons également que l'analyse à verrouillage de phase fournit le regroupement de tâches le plus distinct en fonction de leur utilisation de la mémoire à long terme. Enfin, nous montrons que le couplage phase-amplitude est le moins sensible à la contamination par un artefact musculaire intense de serrage des mâchoires.

Les figures

Collecte et analyse de données fondamentales.…

Collecte et analyse de données fondamentales. (A) Exemple de tracés EEG de 16 électrodes de cuir chevelu…

L'ensemble de données EEG spécifique à la tâche. À travers le sujet…

L'ensemble de données EEG spécifique à la tâche. Moyennes inter-sujets des vecteurs d'activité au cours de huit tâches cognitives…

Discrimination à l'aide de montages minimaux et…

Discrimination à l'aide de montages minimaux et de bandes de fréquences. (A) Distance euclidienne moyenne calculée entre…

Précision de la classification des tâches. (A) Classement…

Précision de la classification des tâches. (A) Précision de la classification entre les paires de tâches lors de l'utilisation uniquement…

Les mesures EEG spécifiques à la tâche forment des clusters…

Les mesures EEG spécifiques à la tâche forment des grappes dans l'espace PCA. (A) Regroupement des tâches dans…

Artefacts oculaires et estimation de phase…

Artefacts oculaires et méthodes d'estimation de phase. (A) Précision de la classification de l'ensemble de données POWER sans…

Sensibilité aux artefacts musculaires. (UNE)…

Sensibilité aux artefacts musculaires. (A) Rapport logarithmique de la puissance estimée pendant le serrage de la mâchoire…


Résultats

Les performances des classificateurs dans l'étude sont évaluées par le taux de précision obtenu à partir de la matrice de confusion. La valeur de précision ( A C C ) est obtenue à partir de la matrice de confusion par (6). La sensibilité (Sens) calcule le taux d'estimation correct de la classe positive par (7). FPR donne le taux de fausse estimation de la classe négative par (8). La précision (PRC) calcule combien de prédictions positives sont réellement positives par (9) (Arican & Polat, 2019).

(6) A C C % = T P + F P T P + T N + F P + F N × 100

Le coefficient Kappa est une méthode statistique qui mesure la fiabilité de l'accord comparatif entre deux évaluateurs, et ce coefficient est calculé par (10)–(13) (Cohen, 1960). Ici, p1 est la probabilité qu'une étiquette choisie au hasard dans l'ensemble de données soit positive, et p2 est la probabilité que le classificateur la trouve positive.

(10) K a p p a = A C C − r a n d o m A C C 1 − r a n d o m A C C

(11) r a n d o m A C C = p 1 p 2 + ( 1 − p 1 ) ( 1 − p 2 )

(12) p 1 = T P + F N T P + T N + F P + F N

(13) p 1 = T P + F N T P + T N + F P + F N

Dans cette étude, l'erreur de classification se compose de deux parties. La première est le taux d'erreur du modèle, tandis que la seconde partie est un intervalle de confiance (IC). La deuxième partie est la probabilité de tomber dans cette fourchette. En CI, la constante indique la valeur du tableau par rapport à la probabilité choisie, et le m est le nombre d'observations utilisées lors de l'élaboration du modèle. Les taux d'erreur pour tous les classificateurs ont été mesurés avec un intervalle de confiance de 95 %. L'erreur catégorielle est calculée avec (14)–(16) (Brownlee, 2020).

(14) erreur = F P + F N T P + T N + F P + F N

(15) C I = c o n s t a n t e r r o r ( 1 − e r r o r ) n

(16) C l a s s i f i c a t i o n E r r ou = e r r ou ± C I

Tous les processus de classification sont effectués avec une validation croisée k fois, k = 10. La validation croisée sépare l'ensemble de données en dix ensembles d'entraînement et de test distincts, et chaque fois que le classificateur est entraîné et testé avec des données différentes (Arican & Polat, 2019). Les données d'apprentissage du logiciel sont de 90 % et les données de test sont de 10 %, discriminant automatiquement et aléatoirement les deux classes. Dans ce sens, 174 des 1740 observations, différentes pour chaque étage, sont utilisées comme apprentissage et le reste du test.

Les résultats obtenus avec des caractéristiques non pondérées

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur kNN sont présentés dans le tableau 4. Là où le signal EEG a donné le résultat le plus élevé pour le classificateur kNN, il est resté à 56,781%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 48.965 0.480 0.519 0.489 −0.020 0.510 ± 0.023
HbR 52.011 0.544 0.455 0.519 0.040 0.480 ± 0.023
EEG 56.781 0.565 0.434 0.568 0.135 0.432 ± 0.023
EEG+HbO 52.988 0.498 0.501 0.531 0.059 0.470 ± 0.023
EEG+HbR 52.586 0.537 0.462 0.525 0.051 0.474 ± 0.023
HbO+HbR 49.770 0.514 0.485 0.497 −0.004 0.502 ± 0.023

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur LDA sont donnés dans le tableau 5. De même, le signal EEG a donné le résultat le plus élevé pour le classificateur LDA, il est resté 60,460%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 51.782 0.511 0.489 0.518 0.036 0.482 ± 0.023
HbR 54.253 0.551 0.449 0.542 0.085 0.457 ± 0.023
EEG 60.460 0.615 0.385 0.602 0.209 0.395 ± 0.023
EEG+HbO 50.977 0.544 0.456 0.509 0.020 0.490 ± 0.023
EEG+HbR 55.460 0.567 0.433 0.553 0.109 0.445 ± 0.023
HbO+HbR 52.816 0.572 0.428 0.526 0.056 0.472 ± 0.023

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur SVM sont donnés dans le tableau 6. Encore une fois, le signal EEG a donné la plus grande précision pour le classificateur SVM, il est resté 60,402%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 52.184 0.549 0.451 0.521 0.044 0.478 ± 0.023
HbR 53.046 0.551 0.449 0.529 0.061 0.470 ± 0.023
EEG 60.402 0.603 0.397 0.604 0.208 0.396 ± 0.023
EEG+HbO 57.874 0.594 0.406 0.576 0.157 0.421 ± 0.023
EEG+HbR 59.943 0.632 0.368 0.593 0.199 0.401 ± 0.023
HbO+HbR 53.103 0.530 0.470 0.531 0.062 0.469 ± 0.023

Les résultats de la classification de l'ensemble de données MA effectué sans appliquer le processus de pondération sont présentés dans le tableau 7. Là où les données EEG ont donné le taux de précision le plus élevé pour le classificateur kNN, il est resté à 62,701%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 56.724 0.556 0.444 0.569 0.134 0.433 ± 0.023
HbR 57.701 0.586 0.414 0.576 0.154 0.423 ± 0.023
EEG 62.701 0.663 0.337 0.618 0.254 0.373 ± 0.023
EEG+HbO 60.402 0.611 0.389 0.602 0.208 0.396 ± 0.023
EEG+HbR 61.552 0.675 0.325 0.603 0.231 0.384 ± 0.023
HbO+HbR 56.724 0.556 0.444 0.569 0.134 0.425 ± 0.023

Les résultats de classification obtenus sur l'ensemble de données MA sans appliquer le processus de pondération sont présentés dans le tableau 8. Les données HbO ont donné le taux de précision le plus élevé pour le classificateur LDA, il est resté à 66,332%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 66.322 0.667 0.333 0.662 0.326 0.337 ± 0.022
HbR 63.966 0.656 0.344 0.635 0.279 0.360 ± 0.023
EEG 65.805 0.676 0.324 0.653 0.316 0.342 ± 0.022
EEG+HbO 59.885 0.653 0.347 0.589 0.198 0.401 ± 0.023
EEG+HbR 61.494 0.640 0.360 0.609 0.230 0.385 ± 0.023
HbO+HbR 63.391 0.725 0.275 0.613 0.268 0.366 ± 0.023

Les résultats de la classification de l'ensemble de données MA effectué sans appliquer le processus de pondération sont présentés dans le tableau 9. Là où les données EEG + HbO ont donné le taux de précision le plus élevé pour le classificateur SVM, il est resté à 74,138%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 65.460 0.653 0.347 0.655 0.309 0.345 ± 0.022
HbR 64.770 0.647 0.353 0.648 0.295 0.352 ± 0.022
EEG 70.920 0.721 0.279 0.704 0.418 0.291 ± 0.021
EEG+HbO 74.138 0.743 0.257 0.741 0.483 0.259 ± 0.021
EEG+HbR 72.241 0.707 0.293 0.730 0.445 0.278 ± 0.021
HbO+HbR 70.287 0.694 0.306 0.706 0.406 0.297 ± 0.021

La figure 5 montre les résultats de la classification des tâches MI et MA non pondérées pour les trois classificateurs. Bien que la tâche MA ait donné une précision plus élevée que la tâche MI, elle est restée à des niveaux assez bas.

Figure 5 : La comparaison des tâches MI et MA non pondérées pour tous les classificateurs.

Les résultats obtenus avec des caractéristiques pondérées

Sur la figure 6, la distribution des données pour la caractéristique 1 et la caractéristique 2 pour le signal EEG+HbO appartenant à la tâche MI sélectionnée au hasard est donnée. La figure 6A montre la distribution des données non pondérées, la figure 6B la distribution de données pondérée basée sur KMCC et la figure 6C la distribution de données pondérée basée sur KMCCD. La séparation des données pondérées peut être un aperçu. La figure 7 montre la comparaison des 1ère et 2ème caractéristiques pour les données non pondérées et pondérées de l'ensemble de caractéristiques HbO des tâches MA.

Figure 6 : La comparaison des caractéristiques 1 et 2 pour les données non pondérées et pondérées à l'aide de l'ensemble de caractéristiques EEG des tâches MI, (A) caractéristiques EEG non pondérées, (B) caractéristiques EEG pondérées KMCC et (C) caractéristiques EEG pondérées KMCCD .

Figure 7 : La comparaison des caractéristiques 1 et 2 pour les données non pondérées et pondérées à l'aide de l'ensemble de caractéristiques HbO des tâches MA, (A) caractéristiques HbO non pondérées, (B) caractéristiques HbO pondérées KMCC et (C) caractéristiques HbO pondérées KMCCD .

Méthode de pondération des attributs basée sur les centres de clustering k-means (basée sur KMCC)

Le tableau 10 montre les résultats des jeux de données d'entités pour la tâche MI pour laquelle l'algorithme de pondération basé sur KMCC est appliqué. Les données EEG+HBR atteignent un taux de précision de 99,540%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 95.920 0.962 0.038 0.957 0.918 0.041 ± 0.009
HbR 95.747 0.924 0.076 0.990 0.915 0.043 ± 0.009
EEG 95.172 0.922 0.078 0.980 0.903 0.048 ± 0.010
EEG+HbO 98.966 0.993 0.007 0.986 0.979 0.010 ± 0.005
EEG+HbR 99.540 0.997 0.003 0.994 0.991 0.005 ± 0.003
HbO+HbR 97.644 0.980 0.020 0.973 0.953 0.024 ± 0.007

Le tableau 11 montre l'ensemble de données MI pondéré basé sur le KMCC pour les résultats de la classification LDA. Les données EEG donnent la valeur la plus élevée pour le classificateur LDA, de même que les données EEG non pondérées pour le classificateur LDA avec 97,816%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 84.655 0.829 0.171 0.859 0.693 0.153 ± 0.017
HbR 88.908 0.853 0.147 0.919 0.778 0.111 ± 0.015
EEG 97.816 0.982 0.018 0.975 0.956 0.022 ± 0.007
EEG+HbO 91.667 0.994 0.006 0.861 0.833 0.083 ± 0.013
EEG+HbR 91.322 0.993 0.007 0.856 0.826 0.087 ± 0.013
HbO+HbR 70.575 0.618 0.382 0.749 0.411 0.294 ± 0.021

Le tableau 12 montre l'ensemble de données MI pondéré basé sur KMCC pour les résultats du classificateur SVM. Les données hybrides fNIRS donnent la valeur la plus élevée pour le classificateur SVM, elle est restée à 99,943%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 97.816 0.999 0.001 0.959 0.956 0.022 ± 0.007
HbR 98.736 0.980 0.020 0.994 0.975 0.013 ± 0.005
EEG 97.816 0.979 0.021 0.977 0.956 0.022 ± 0.007
EEG+HbO 98.678 0.992 0.008 0.982 0.974 0.013 ± 0.005
EEG+HbR 98.621 0.997 0.003 0.976 0.972 0.014 ± 0.005
HbO+HbR 99.943 0.999 0.001 1.000 0.999 0.001 ± 0.001

Le tableau 13 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats du classificateur kNN. Les données hybrides fNIRS donnent la valeur la plus élevée pour les données hybrides EEG + HbR et elles sont restées à 98,793%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 98.736 0.983 0.017 0.992 0.975 0.013 ± 0.005
HbR 89.138 0.783 0.217 1.000 0.783 0.109 ± 0.015
EEG 95.000 0.905 0.095 0.995 0.900 0.050 ± 0.010
EEG+HbO 98.563 0.971 0.029 1.000 0.971 0.014 ± 0.006
EEG+HbR 98.793 0.976 0.024 1.000 0.976 0.012 ± 0.005
HbO+HbR 94.425 0.889 0.111 1.000 0.889 0.056 ± 0.011

Le tableau 14 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats de la classification LDA. Les données hybrides fNIRS donnent la valeur la plus élevée pour le classificateur LDA, elle est restée à 97,356%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 91.724 0.870 0.130 0.961 0.834 0.083 ± 0.013
HbR 88.621 0.832 0.168 0.933 0.772 0.114 ± 0.015
EEG 96.034 0.944 0.056 0.976 0.921 0.040 ± 0.009
EEG+HbO 97.356 0.985 0.015 0.963 0.947 0.026 ± 0.008
EEG+HbR 96.724 0.999 0.001 0.939 0.934 0.033 ± 0.008
HbO+HbR 76.782 0.746 0.254 0.780 0.536 0.232 ± 0.020

Le tableau 15 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats de la classification SVM. Les données hybrides fNIRS donnent la valeur la plus élevée pour les données hybrides EEG + HbR, et elles sont restées à 99,655%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 99.138 0.990 0.010 0.993 0.983 0.009 ± 0.004
HbR 97.989 0.960 0.040 1.000 0.960 0.020 ± 0.007
EEG 98.966 0.990 0.010 0.990 0.979 0.010 ± 0.005
EEG+HbO 99.425 0.999 0.001 0.990 0.989 0.006 ± 0.004
EEG+HbR 99.655 0.999 0.001 0.994 0.993 0.003 ± 0.003
HbO+HbR 94.598 0.902 0.098 0.989 0.892 0.054 ± 0.011

Tous les résultats de classification pour les tâches MI et MA sont présentés de manière comparative dans la figure 8 pour l'algorithme pondéré basé sur KMCC.

Figure 8 : Comparaison des tâches MI et MA pondérées basées sur KMCC pour tous les classificateurs.

Méthode de pondération des attributs basée sur la différence des centres de clustering k-means (basée sur le KMCCD)

Le tableau 16 montre les résultats des ensembles de données d'entités pour la tâche MI pour laquelle l'algorithme de pondération basé sur KMCCD est appliqué pour le classificateur kNN. Le classificateur kNN, qui a les taux de précision les plus bas dans le processus de classification non pondéré, a atteint un taux de précision de 99,655% (pour les caractéristiques EEG + HbR) comme dans KMCC.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 91.494 0.964 0.036 0.878 0.830 0.085 ± 0.013
HbR 90.920 0.972 0.028 0.863 0.818 0.091 ± 0.014
EEG 98.448 0.999 0.001 0.971 0.969 0.016 ± 0.006
EEG+HbO 99.540 0.998 0.002 0.993 0.991 0.005 ± 0.003
EEG+HbR 99.655 0.997 0.003 0.997 0.993 0.003 ± 0.003
HbO+HbR 94.598 0.930 0.070 0.961 0.892 0.054 ± 0.011

Le tableau 17 montre l'ensemble de données MI pondéré basé sur le KMCCD pour les résultats de la classification LDA. Les données EEG donnent la valeur la plus élevée pour le classificateur LDA, et elle est restée à 96,724%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 74.253 0.720 0.280 0.754 0.485 0.257 ± 0.021
HbR 75.000 0.757 0.243 0.746 0.500 0.250 ± 0.020
EEG 96.724 0.992 0.008 0.945 0.934 0.033 ± 0.008
EEG+HbO 93.046 0.998 0.002 0.879 0.861 0.070 ± 0.012
EEG+HbR 93.103 0.997 0.003 0.881 0.862 0.069 ± 0.012
HbO+HbR 70.230 0.832 0.168 0.661 0.405 0.298 ± 0.021

Le tableau 18 montre l'ensemble de données MI pondéré basé sur le KMCCD pour les résultats de la classification SVM. Les données EEG + HbO donnent la valeur la plus élevée pour le classificateur SVM, et elle est restée à 99,080%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 94.885 0.963 0.037 0.936 0.898 0.051 ± 0.010
HbR 96.437 0.943 0.057 0.986 0.929 0.036 ± 0.009
EEG 96.379 0.990 0.010 0.941 0.928 0.036 ± 0.009
EEG+HbO 99.080 0.993 0.007 0.989 0.982 0.009 ± 0.004
EEG+HbR 98.851 0.993 0.007 0.984 0.977 0.011 ± 0.005
HbO+HbR 81.954 0.871 0.129 0.790 0.639 0.180 ± 0.018

Le tableau 19 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification kNN. Les données EEG+HbR donnent la valeur la plus élevée pour le classificateur kNN, et il est resté à 99,885%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 92.471 0.955 0.045 0.900 0.849 0.075 ± 0.012
HbR 87.874 0.976 0.024 0.817 0.757 0.121 ± 0.015
EEG 93.966 0.886 0.114 0.992 0.879 0.060 ± 0.011
EEG+HbO 99.885 0.998 0.002 1.000 0.998 0.001 ± 0.002
EEG+HbR 99.770 0.995 0.005 1.000 0.995 0.002 ± 0.002
HbO+HbR 92.299 0.852 0.148 0.993 0.846 0.077 ± 0.013

Le tableau 20 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification LDA. Les données EEG + HbR donnent la valeur la plus élevée pour le classificateur LDA, qui est resté à 98,793%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 78.851 0.782 0.218 0.793 0.577 0.211 ± 0.019
HbR 73.046 0.741 0.259 0.726 0.461 0.270 ± 0.021
EEG 94.713 0.962 0.038 0.934 0.894 0.053 ± 0.011
EEG+HbO 98.103 0.999 0.001 0.964 0.962 0.019 ± 0.006
EEG+HbR 98.793 0.998 0.002 0.979 0.976 0.012 ± 0.005
HbO+HbR 76.724 0.693 0.307 0.814 0.534 0.233 ± 0.020

Le tableau 21 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification SVM. Les données EEG+HbR donnent la valeur la plus élevée pour le classificateur LDA, et elles sont restées à 99,943%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 96.609 0.962 0.038 0.970 0.932 0.034 ± 0.009
HbR 97.816 0.979 0.021 0.977 0.956 0.022 ± 0.007
EEG 98.448 0.980 0.020 0.988 0.969 0.016 ± 0.006
EEG+HbO 99.713 0.997 0.003 0.998 0.994 0.003 ± 0.003
EEG+HbR 99.943 0.999 0.001 1.000 0.999 0.001 ± 0.001
HbO+HbR 85.690 0.801 0.199 0.902 0.714 0.143 ± 0.016

Tous les résultats de classification pour les tâches MI et MA sont présentés de manière comparative dans la figure 9 pour l'algorithme pondéré basé sur le KMCCD. Des performances plus élevées des fonctions de signal EEG et des fonctions hybrides sont observées.

Figure 9 : Comparaison des tâches MI et MA pondérées basées sur le KMCCD pour tous les classificateurs.

Les valeurs d'erreur de classification proches de 0 indiquent ici que le taux d'erreur dans l'étiquette sélectionnée pour les données saisies en externe est faible.


Examen de l'extraction et de la classification des caractéristiques émotionnelles à l'aide de signaux EEG

En tant que réponse subjectivement psychologique et physiologique à des stimuli externes, l'émotion est omniprésente dans notre vie quotidienne. Avec le développement continu de l'intelligence artificielle et de la science du cerveau, la reconnaissance des émotions devient rapidement un domaine de recherche multidisciplinaire grâce aux signaux EEG. Cet article examine la littérature scientifique pertinente au cours des cinq dernières années et passe en revue les méthodes d'extraction de caractéristiques émotionnelles et les méthodes de classification utilisant des signaux EEG. Les méthodes d'analyse d'extraction de caractéristiques couramment utilisées comprennent l'analyse du domaine temporel, l'analyse du domaine fréquentiel et l'analyse du domaine temps-fréquence. Les méthodes de classification largement utilisées incluent des algorithmes d'apprentissage automatique basés sur Support Vector Machine (SVM), k-Nearest Neighbor (KNN), Naive Bayes (NB), etc., et leur précision de classification varie de 57,50% à 95,70%. La précision de classification des algorithmes d'apprentissage en profondeur basés sur le réseau neuronal (NN), la mémoire à long et à court terme (LSTM) et le réseau de croyances profondes (DBN) varie de 63,38 % à 97,56 %.


Classification des signaux EEG - Psychologie

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux.Pour les articles publiés sous une licence Creative Common CC BY en accès libre, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant publication.

L'article de fond peut être soit un article de recherche original, soit une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type d'article donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Contenu

Méthodes du domaine fréquentiel Modifier

L'analyse du domaine fréquentiel, également connue sous le nom d'analyse spectrale, est la méthode la plus conventionnelle mais l'une des plus puissantes et standard pour l'analyse EEG. Il donne un aperçu des informations contenues dans le domaine fréquentiel des formes d'onde EEG en adoptant des méthodes statistiques et de transformée de Fourier. [3] Parmi toutes les méthodes spectrales, l'analyse spectrale de puissance est la plus couramment utilisée, car le spectre de puissance reflète le « contenu fréquentiel » du signal ou la distribution de la puissance du signal sur la fréquence. [4]

Méthodes du domaine temporel Modifier

Il existe deux méthodes importantes pour l'analyse EEG dans le domaine temporel : la prédiction linéaire et l'analyse en composants. Généralement, la prédiction linéaire donne la valeur estimée égale à une combinaison linéaire de la valeur de sortie passée avec la valeur d'entrée présente et passée. Et l'analyse des composants est une méthode non supervisée dans laquelle l'ensemble de données est mappé à un ensemble de fonctionnalités. [5] Notamment, les paramètres dans les méthodes du domaine temporel sont entièrement basés sur le temps, mais ils peuvent également être extraits des moments statistiques du spectre de puissance. En conséquence, la méthode du domaine temporel établit un pont entre l'interprétation du temps physique et l'analyse spectrale conventionnelle. [6] En outre, les méthodes du domaine temporel offrent un moyen de mesurer en ligne les propriétés de base du signal au moyen d'un calcul basé sur le temps, ce qui nécessite un équipement moins complexe par rapport à l'analyse fréquentielle conventionnelle. [7]

Méthodes du domaine temps-fréquence Modifier

La transformation en ondelettes, une méthode typique du domaine temps-fréquence, peut extraire et représenter des propriétés à partir de signaux biologiques transitoires. Plus précisément, grâce à la décomposition en ondelettes des enregistrements EEG, les caractéristiques transitoires peuvent être capturées et localisées avec précision dans le contexte temporel et fréquentiel. [8] Ainsi, la transformation en ondelettes est comme un microscope mathématique qui peut analyser différentes échelles de rythmes neuronaux et étudier les oscillations à petite échelle des signaux cérébraux tout en ignorant la contribution des autres échelles. [9] [10] Outre la transformation en ondelettes, il existe une autre méthode temps-fréquence de premier plan appelée transformation de Hilbert-Huang, qui peut décomposer les signaux EEG en un ensemble de composants oscillatoires appelés fonction de mode intrinsèque (IMF) afin de capturer des données de fréquence instantanées. . [11] [12]

Méthodes non linéaires Modifier

De nombreux phénomènes dans la nature sont non linéaires et non stationnaires, de même que les signaux EEG. Cet attribut ajoute plus de complexité à l'interprétation des signaux EEG, rendant les méthodes linéaires (méthodes mentionnées ci-dessus) limitées. Depuis 1985, date à laquelle deux pionniers de l'analyse EEG non linéaire, Rapp et Bobloyantz, ont publié leurs premiers résultats, la théorie des systèmes dynamiques non linéaires, également appelée « théorie du chaos », a été largement appliquée au domaine de l'analyse EEG. [13] Pour effectuer une analyse EEG non linéaire, les chercheurs ont adopté de nombreux paramètres non linéaires utiles tels que l'exposant de Lyapunov, la dimension de corrélation et des entropies telles que l'entropie approximative et l'entropie de l'échantillon. [14] [15]

Méthodes ANN Modifier

La mise en œuvre des réseaux de neurones artificiels (ANN) est présentée pour la classification des signaux d'électroencéphalogramme (EEG). Dans la plupart des cas, les données EEG impliquent un prétraitement de transformation en ondelettes avant d'être insérées dans les réseaux de neurones. [16] [17] RNN (réseaux neuronaux récurrents) a été une fois considérablement appliqué dans les études d'implémentations ANN dans l'analyse EEG. [18] [19] Jusqu'à l'essor de l'apprentissage profond et des CNN (réseaux de neurones convolutifs), la méthode CNN devient un nouveau favori dans les études récentes sur l'analyse EEG utilisant l'apprentissage en profondeur. Avec une formation recadrée pour le CNN profond pour atteindre des précisions compétitives sur l'ensemble de données, CNN profond a présenté une performance de décodage supérieure. [20] De plus, les grandes données EEG, en tant qu'entrée d'ANN, nécessitent un stockage sûr et des ressources de calcul élevées pour le traitement en temps réel. Pour relever ces défis, un apprentissage en profondeur basé sur le cloud a été proposé et présenté pour l'analyse en temps réel de grandes données EEG. [21]

Clinique Modifier

L'analyse EEG est largement utilisée dans le diagnostic et l'évaluation des maladies cérébrales. Dans le domaine des crises d'épilepsie, la détection des décharges épileptiformes à l'EEG est un élément important dans le diagnostic de l'épilepsie. Des analyses minutieuses des enregistrements EEG peuvent fournir des informations précieuses et une meilleure compréhension des mécanismes à l'origine des troubles épileptiques. [22] En outre, l'analyse EEG aide également beaucoup à la détection de la maladie d'Alzheimer, [23] des tremblements, etc.

BCI (Interface cerveau-ordinateur) Modifier

Les enregistrements EEG pendant l'imagerie motrice droite et gauche permettent d'établir un nouveau canal de communication. [24] Sur la base d'une analyse EEG en temps réel avec des modèles spatiaux spécifiques au sujet, une interface cerveau-ordinateur (BCI) peut être utilisée pour développer une réponse binaire simple pour le contrôle d'un appareil. Un tel BCI basé sur l'EEG peut aider, par exemple, les patients atteints de sclérose latérale amyotrophique, avec certaines activités quotidiennes.

Outil d'analyse Modifier

Brainstorm est une application collaborative open source dédiée à l'analyse d'enregistrements cérébraux, notamment MEG, EEG, fNIRS, ECoG, électrodes de profondeur et neurophysiologie invasive animale. [25] L'objectif de Brainstorm est de partager un ensemble complet d'outils conviviaux avec la communauté scientifique en utilisant MEG/EEG comme technique expérimentale. Brainstorm propose une interface graphique riche et intuitive pour les médecins et les chercheurs, qui ne nécessite aucune connaissance en programmation. Certains autres logiciels d'analyse open source relatifs incluent FieldTrip, etc.

Autres Modifier

Combinée à l'analyse des expressions faciales, l'analyse EEG offre la fonction de détection continue des émotions, qui peut être utilisée pour retrouver les traces émotionnelles des vidéos. [26] Certaines autres applications incluent la cartographie cérébrale basée sur l'EEG, le crypteur personnalisé basé sur l'EEG, le système d'annotation d'images basé sur l'EEG, etc.


Une enquête sur la classification des signaux EEG utilisant EMD et VMD pour la détection des crises d'épilepsie

RésuméLa classification automatique des signaux épileptiques joue un rôle essentiel dans la surveillance et le diagnostic à long terme. Cet article de synthèse fournit une étude des nouvelles caractéristiques des techniques d'extraction et de classification pour la classification de l'épilepsie à l'aide d'Extreme Learning Machine (ELM) et de Support Vector Machines (SVM) pour la décomposition en mode empirique (EMD) et la décomposition en mode variationnel (VMD). Le signal EEG est décomposé en fonctions de mode intrinsèque (IMF). La variance, l'asymétrie et l'aplatissement sont extraits en tant que caractéristiques des signaux décomposés. ELM et SVM sont utilisés comme classificateur pour classer les signaux EEG. Pour VMD, le signal EEG est décomposé en fonctions de mode intrinsèque (IMF) en premier lieu qui doivent être extraites en tant que caractéristique après avoir déterminé les caractéristiques optimales à l'aide de classificateurs tels que SVM et ELM.

Mots-clés Épileptique, Électroencéphalogramme (EEG), Décomposition en mode empirique (EMD), Décomposition en mode variationnel (VMD), Machines à vecteurs de support (SVM), Extreme Learning Machine (ELM)

Traduire des pensées et des actions sans agir physiquement a toujours été un incontournable des romans de science-fiction et des films hollywoodiens. Cependant, cette idée devient rapidement une réalité : la BCI est l'une de ces avancées en neurosciences. Les origines du BCI remontent aux travaux des années 1960 de Delgado (1969) et Fetz (1969). Delgado a développé une puce implantable (qu'il a appelée un stimoceiver) qui pourrait être utilisée à la fois pour stimuler le cerveau par radio et envoyer des signaux électriques de l'activité cérébrale par télémétrie, permettant au sujet de se déplacer librement.[1] Bien que le stimoreceiver ait été utilisé à des fins totalement différentes, la BCI est devenue une technologie pivot dont les avancées en neurosciences ont été de la plus haute importance pour la communauté médicale.

Avec l'introduction d'ordinateurs plus rapides et moins chers, les progrès de nos connaissances sur le fonctionnement du cerveau, une plus grande disponibilité d'appareils d'enregistrement des signaux cérébraux et des algorithmes de traitement du signal et d'apprentissage automatique plus puissants, une poussée soudaine et durable d'intérêt et d'innovation peut être observée dans le domaine de la BCI.

Une interface cerveau-ordinateur (BCI) est une technologie qui reçoit, analyse et transfère les signaux générés par le cerveau en commandes de sortie dans le monde réel pour accomplir une tâche particulière.[2] Ce faisant, ils sont uniques, car ils n'incluent pas les voies neuromusculaires normales des nerfs périphériques et

muscles pour remplir une fonction, qui est le siège d'une pathologie chez les patients paralysés [3]. Les interfaces ordinateur-cerveau sont conçues pour restaurer la fonction sensorielle, transmettre des informations sensorielles au cerveau ou stimuler le cerveau grâce à des signaux électriques générés artificiellement.

Fig. 1 : Composants de base d'une interface cerveau-ordinateur (BCI). (Image de Rao et Scherer, 2010).

Une ou plusieurs des étapes de traitement suivantes sont généralement impliquées :

Enregistrement cérébral : Les signaux du cerveau sont enregistrés à l'aide de techniques d'enregistrement invasives ou non invasives.

Traitement du signal : les signaux bruts sont prétraités après l'acquisition (par exemple, par filtrage passe-bande) et des techniques de réduction des artefacts et d'extraction de caractéristiques sont utilisées.

Reconnaissance de modèles et apprentissage automatique : cette étape génère un signal de contrôle basé sur des modèles dans l'entrée, généralement à l'aide de techniques d'apprentissage automatique.

Retour sensoriel : Le signal de commande du BCI provoque un changement dans l'environnement (par exemple, le mouvement d'un bras prothétique ou d'un fauteuil roulant, un changement dans la prise d'une main prothétique), c'est-à-dire qu'il donne/produit une sortie. Certains de ces changements peuvent être vus, entendus ou ressentis par l'utilisateur, mais en général, on peut utiliser des capteurs dans l'environnement tels que des capteurs tactiles, des capteurs de force, des caméras et des microphones, et utiliser les informations de ces capteurs pour fournir un retour direct au cerveau par stimulation.

Traitement du signal pour la stimulation : avant de stimuler une région particulière du cerveau, il est important de synthétiser un schéma d'activité pour la stimulation qui imite le type d'activité normalement observé dans la région du cerveau et qui aura l'effet/le résultat souhaité.

Stimulation cérébrale : Le modèle de stimulation reçu du composant de traitement du signal mentionné au point 5 est utilisé en conjonction avec des techniques de stimulation invasives ou non invasives pour stimuler le cerveau.

Il ressort clairement des étapes de traitement énumérées ci-dessus que pour commencer à construire des BCI, il faut avoir une formation dans au moins quatre domaines essentiels : les neurosciences de base, les technologies d'enregistrement et de stimulation du cerveau, le traitement élémentaire du signal et les techniques de base d'apprentissage automatique.[4 ]

Comme mentionné ci-dessus, une compréhension de base des neurosciences, des technologies d'enregistrement et de stimulation des amplis, du traitement élémentaire du signal et des techniques d'apprentissage automatique est nécessaire pour comprendre les BCI.

La crise est simplement la condition médicale ou le trouble neurologique dans lequel trop de neurones sont excités en même temps, causés par une lésion cérébrale ou par un déséquilibre des produits chimiques dans le cerveau qui se caractérise principalement par des interruptions imprévisibles de la fonction cérébrale normale. L'épilepsie est une autre condition médicale caractérisée par des crises récurrentes spontanées [1]. L'épilepsie peut entraîner de nombreuses blessures telles que des fractures, une submersion, des brûlures, des accidents de la route et même la mort. Environ 1% de la population totale développe une épilepsie [2]. Il est possible de prévenir les crises d'épilepsie avec une sensibilité élevée (c'est-à-dire en détectant le signal préictal) si des changements électriques dans le cerveau qui se produisent avant le début d'une crise réelle peuvent être détectés.

Le cerveau humain traite les informations sensorielles reçues par des stimuli externes/internes. Dans le cerveau, les neurones exploitent des réactions chimiques pour générer de l'électricité afin de contrôler différentes actions corporelles et cette activité électrique continue peut être enregistrée graphiquement avec un électroencéphalogramme (EEG). Les signaux EEG représentent la nature non linéaire des signaux enregistrés dans lesquels il existe deux termes clés, à savoir état et dynamique. Les signaux EEG d'un patient épileptique peuvent être divisés en cinq périodes ou stades (i) période sans crise, aucun syndrome épileptique n'est visible, (ii) période critiquepériode épileptique réelle, normalement la durée est de 1 à 3 minutes (iii) période préictale 30 minutes à 60 minutes avant la période ictale, (iv) la période post-ictale 30 minutes après la période ictale, et (v) la période interictale entre la période post-ictale et la période pré-ictale.

Afin d'obtenir des informations cruciales si une crise va se produire ou non, il faut analyser l'état préictal des signaux EEG. Avec l'amélioration des technologies et l'augmentation du nombre de canaux de qualité, il est important de réaliser des modèles potentiellement impliqués dans les signaux EEG sur une gamme d'échelles temporelles [4].

ENREGISTRER ET STIMULER LE CERVEAU

L'EEG est une technique utilisée pour mesurer les signaux électriques produits par le cerveau qui transportent des informations sur le fonctionnement du cerveau. Ces signaux cérébraux sont enregistrés à partir des électrodes placées sur la tête, appelées EEG du cuir chevelu. Les signaux EEG intracrâniens, quant à eux, sont enregistrés en plaçant des électrodes-aiguilles dans le tissu cérébral.

Les signaux EEG sont principalement utilisés pour analyser les conditions cérébrales qui ont été menées pour explorer la qualité du sommeil, les émotions, l'attention et le fonctionnement de la mémoire via le signal P300, le dépistage de la dépression, la détection de l'épilepsie et bien d'autres. Il existe cinq types de sous-bandes du signal EEG :

Bande Delta (moins de 4 Hz)

Bande Gamma (supérieure à 40 Hz)

La forme d'onde varie en fonction de la fonction de l'association du cerveau avec différentes tâches. Par exemple, un signal EEG enregistré pendant le sommeil a un pourcentage plus élevé d'ondes longues (bandes delta et thêta) tandis que les ondes plus courtes (bandes alpha et bêta) dominent pendant le temps d'éveil.

Afin de reconnaître les modèles contenus dans les signaux EEG, les caractéristiques pertinentes doivent être extraites. Ces caractéristiques peuvent être des caractéristiques du domaine temporel, des caractéristiques du domaine fréquentiel ou les deux, où le contenu fréquentiel des signaux est révélé tout en conservant les informations sur la façon dont les signaux fluctuent dans le temps.

Le processus général de classification des signaux EEG est/papier est organisé comme suit :

Transformation des signaux EEG vers un autre domaine de traitement

Fig. 2 : Électroencéphalographie. (A) Sujet portant un capuchon EEG à 32 électrodes. (B) Système international 10-20 pour les emplacements normalisés des électrodes EEG sur la tête. C= central, P=pariétal, T=temporal, F=frontal, Fp=frontal polaire, O=occipital, A=mastoids (image A avec l'aimable autorisation de K. Miller image B de Wikimedia Commons).

ENSEMBLES DE DONNÉES DISPONIBLES POUR LA CLASSIFICATION DES SAISIES EEG L'ensemble de données EPILEPSIE appartient à la base de données européenne développée dans le cadre du projet EPILEPSIE fondé par l'UE. Jusqu'à présent, les ressources publiques pour les enregistrements EEG sont limitées. La base de données EPILEPSIE est de loin la base de données la plus grande et la plus complète pour les données EEG de surface et intracrâniennes humaines. Il convient à une large gamme d'applications, par ex. d'analyses de séries chronologiques de l'activité cérébrale. La base de données de l'UE contient des ensembles de données EEG annotés de plus de 200 patients épileptiques, dont 50 avec des enregistrements intracrâniens avec jusqu'à 122 canaux.

La variance, l'asymétrie et l'aplatissement sont pris comme caractéristiques des signaux décomposés de l'EMD. La variance (2), l'asymétrie (sk) et l'aplatissement (ku) sont respectivement donnés par :

Où est la moyenne et N est la longueur de l'IMF, est l'écart type et xi est l'IMF du signal pour le ième échantillon. Variance, Skewness et Kurtosis décrivent la dispersion, l'asymétrie et le pic de l'ensemble de données.

DÉCOMPOSITION EN MODE EMPIRIQUE

EMD signifie Décomposition en Mode Empirique. Cette méthode analyse les signaux non stationnaires et a été couramment utilisée pour analyser les signaux biologiques pour l'identification des sons pulmonaires, l'électrocardiogramme, la détection du type de crise et l'élimination des artefacts.

Cette méthode fonctionne en décomposant un signal s(t) en un certain nombre de fonctions à bande limitée connues sous le nom de fonctions de mode intrinsèque (FMI) et résiduelles en supprimant l'oscillation locale des signaux. Ces IMF doivent remplir deux conditions de base :

Le nombre d'extrema ou de passages à zéro doit être le même ou différer au plus d'un.

En tout point, la valeur moyenne de l'enveloppe définie par les maxima locaux et de l'enveloppe définie par les minima locaux est nulle.

Les IMF sont des signaux à une seule composante. Mathématiquement, le premier FMI est soustrait des données d'origine

Cette procédure est ensuite appliquée itérativement au résidu r(t) jusqu'à ce qu'il devienne constant ou ne contienne plus d'oscillations.

VIII. DÉCOMPOSITION EN MODE VARIATIONNEL

La VMD est connue sous le nom d'approche de décomposition en mode variationnelle pour la décomposition temps-fréquence des signaux EEG. Cette approche est utilisée pour surmonter les limitations de l'approche EMD. EMD utilise une approche récursive qui ne permet pas de correction en arrière et est donc incapable de gérer correctement le bruit. En VMD, en revanche, au lieu d'une approche récursive, une approche concurrente est utilisée pour extraire les IMF du signal où les fréquences centrales sont calculées dynamiquement.

Ici, une méthode adaptative est utilisée, dans laquelle le signal est décomposé en k IMF et qui donne un ensemble de modes uk avec leur fréquence centrale respective wk. La somme de ces modes représente le signal d'origine.

En VMD, l'identification des IMF est considérée comme un problème d'optimisation. L'algorithme VMD peut être brièvement résumé comme suit :

Pour chaque mode uk, le signal analytique associé est calculé à l'aide de la transformée de Hilbert afin d'obtenir un spectre fréquentiel unilatéral.

Le spectre de fréquence des modes est décalé par mélange avec une exponentielle à la fréquence centrale calculée respective.

La bande passante est estimée par le lissage gaussien du signal démodulé.

L'efficacité des paramètres (aire et fréquence moyenne des IFM) dans la classification des signaux EEG épileptiques et sans crise est évaluée à l'aide de

LS-SVM : les machines à vecteurs de support sont des modèles d'apprentissage supervisé qui constituent une méthodologie potentielle pour résoudre des problèmes dans les classifications linéaires et non linéaires, les estimations de fonctions et les méthodes d'apprentissage basées sur le noyau. Cependant, les SVM ont un inconvénient : elles offrent une charge de calcul élevée du problème d'optimisation sous contraintes. Par conséquent, pour surmonter ces inconvénients, LS-SVM, connu sous le nom de SVM des moindres carrés, une version étendue de SVM est utilisée. Il apprend les mappages non linéaires à partir des fonctionnalités de l'ensemble d'apprentissage. Pour un SVM à deux classes, nous considérons l'équation suivante :

Où w est le vecteur de poids dimensionnel l, b est le biais et g(x) est la fonction de mappage qui mappe x dans l'espace dimensionnel l.

ELM : les ELM sont des réseaux de neurones à anticipation pour la classification, la régression, le clustering, l'approximation éparse, la compression et l'apprentissage de fonctionnalités avec une seule couche de nœuds cachés, où les paramètres des nœuds cachés n'ont pas besoin d'être réglés. Le réseau de neurones à action directe unique (SFLN) possédant un nœud L-caché avec additif et fonction de base radiale (RBF) est donné par

L'ELM s'effectue en trois étapes :

Attribution aléatoire des poids d'entrée w et du biais b

Calcul de la matrice de sortie de la couche cachée

H. Détermination des poids de sortie ^=H-1T où H-1 est l'inverse généralisé de Morre Penrose de H.

En un mot, BCI est une technologie innovante qui utilise des signaux cérébraux pour contrôler un appareil externe afin d'accomplir une tâche en contournant les voies neuromusculaires normales. Le BCI a été utilisé dans des applications médicales telles que la détection des crises, les rotations sensorielles, les rotations motrices et la rééducation. Parmi ces détections d'épilepsie a fait l'objet de nombreuses recherches. Cet article de synthèse tente de présenter la détection de l'épilepsie par EEG

signaux. Des techniques EMD et VMD sont proposées pour réduire les signaux d'entrée dans les IMF respectives. Ces signaux subissent ensuite une extraction de caractéristiques pour sélectionner les caractéristiques appropriées à classer. Des classificateurs comme SVM et ELM (Extreme Learning Machine) ont été appliqués. Les procédés susmentionnés peuvent être avantageux dans la classification de signaux biologiques tels que la maladie d'Alzheimer et la SEP.

Je remercie le Dr Sharmishta Desai, professeur adjoint au MIT-World Peace University, Pune pour m'avoir aidé à me guider avec des connaissances suffisantes pour rédiger cet article et pour les commentaires qui ont grandement amélioré le manuscrit. Je lui suis immensément reconnaissante pour ses commentaires sur les versions antérieures des manuscrits,

bien que toutes les erreurs soient les miennes et ne devraient pas ternir la réputation de cette personne estimée.

Guido Domhege, Jose del R. Milan, Thilo Hinterberger, Dennis J. McFarland, Klaus-Robert Muller, Toward Brain-Computer Interfacing: The MIT Press (2007)

Shiv Kumar Mudgal, Suresh K Sharma, Jitendra Chaturvedi, Anil Sharma, Avancement de l'interface cerveau-ordinateur en neurosciences : applications et enjeux


Fond

La démence est un large groupe de troubles cérébraux conduisant à une déficience cognitive en raison d'un dysfonctionnement progressif et de la mort des cellules cérébrales. Le World Alzheimer Report 2015 a estimé que 36 millions de personnes vivaient avec la démence en 2010, doublant presque tous les 20 ans pour atteindre 66 millions en 2030 et 115 millions en 2050 [1]. Compte tenu de la croissance continue de l'incidence de cette maladie, la démence représente l'un des principaux fléaux de la société moderne. La cause la plus répandue de démence est la maladie d'Alzheimer (MA), qui implique de graves pertes de mémoire, des troubles cognitifs et des changements de comportement. Ainsi, la MA interfère avec le fonctionnement quotidien, social et professionnel des patients, affectant également la vie quotidienne de leurs familles [2]. Le stade intermédiaire entre le déficit cognitif normal dû au vieillissement et la démence est défini comme une déficience cognitive légère (MCI). Plusieurs symptômes distinguent le MCI, mais la perte de mémoire est un facteur de risque de développer la MA [3]. En Europe, seulement 50 % des patients atteints de démence reçoivent un diagnostic par un centre spécialisé et les tests de démence sont effectués après que le patient a déjà commencé à présenter des symptômes et que la maladie a progressé [4]. Habituellement, le processus d'obtention d'un diagnostic clinique de démence d'un patient repose principalement sur la remise d'un questionnaire afin d'évaluer ses capacités cognitives. Cependant, un diagnostic rapide faciliterait les soins, réduirait la progression de la maladie et améliorerait la prise en charge du patient pour alléger le fardeau. Cela pourrait être réalisé grâce à une combinaison de critères de diagnostic et de biomarqueurs fiables.

Au cours des dernières années, des progrès significatifs ont été réalisés pour détecter les premiers stades de la démence grâce à des biomarqueurs biochimiques, génétiques, neuro-imagerie et neurophysiologiques tels que l'électroencéphalographie (EEG) [5-9]. L'EEG fournit l'activité électrique du cerveau en suivant la connectivité des neurones dans les sites d'enregistrement du cuir chevelu [10], en la traitant avec une précision de l'ordre de la milliseconde. L'état de la physiologie cérébrale peut être déduit des signaux EEG enregistrés, et ainsi des anomalies peuvent être identifiées grâce à la détection de modèles de fréquence inhabituels [11]. En effet, différents rythmes avec diverses bandes de fréquences décrivent l'activité du cerveau et peuvent être enregistrés par EEG. Parmi eux, les principaux sont alpha (8-13 Hz, 30-50 ??V amplitude), bêta (13-30 Hz, 5-30 ??V amplitude), gamma (≥ 30 Hz), delta (0,5-4 Hz), et thêta (4-7 Hz, 20??V amplitude).

Bien qu'il se caractérise par une résolution spatiale plus faible que les autres techniques de neuroimagerie, l'EEG offre une résolution temporelle élevée [12]. De plus, l'EEG est non invasif, facile et plus rapide à utiliser et capable de différencier la gravité de la démence à un coût inférieur à celui des autres appareils d'imagerie [13, 14]. Grâce à ses coûts réduits, l'EEG peut être facilement mis en œuvre pour le dépistage de la population afin de détecter des biomarqueurs précliniques.

L'analyse du signal EEG peut fournir des indications utiles sur les schémas de l'activité cérébrale et prédire les stades de la démence [15, 16] en raison de sa capacité significative à détecter les anomalies du rythme cérébral, généralement corrélées à la gravité des troubles cognitifs [17]. En particulier, différentes études cliniques confirment que l'EEG est une technique appropriée pour détecter précocement la MA [18-20], en raison des effets suivants sur les signaux EEG : réduction de la complexité, perturbation de la synchronie et ralentissement des rythmes [19, 21, 22]. Le ralentissement des rythmes dans les signaux EEG des sujets atteints de MA peut s'expliquer par un gain de l'activité dans les gammes de fréquences thêta et delta, et une diminution de l'activité dans les gammes de fréquences alpha et bêta [23-26]. La réduction de la complexité des schémas temporels EEG peut s'expliquer par une modification de l'architecture du réseau neuronal observée chez les sujets atteints de MA [27, 28] en raison de la perte de neurones et de l'altération des interactions fonctionnelles qui rendent l'activité du cerveau plus prévisible, plus réguliers et plus simples que dans les échantillons témoins sains (HC) [29]. Par conséquent, nous pouvons affirmer que les signaux EEG liés aux sujets témoins sains peuvent être distingués de ceux des sujets affectés par des maladies neurodégénératives (par exemple, la MA) ou d'autres pathologies (par exemple, l'épilepsie).

Néanmoins, les sujets AD et MCI sont caractérisés par une énorme variabilité et, par conséquent, les artefacts discriminants et les similitudes de modèles avec l'activité cérébrale physiologique restent toujours un problème crucial. À cet égard, le traitement du signal EEG intégré à des algorithmes de calcul basés sur des méthodes d'apprentissage automatique peut contribuer à une meilleure compréhension de la maladie et simplifier le travail des neurologues en fournissant un outil supplémentaire pour diagnostiquer le stade de la démence [20, 30-33].

Dans cet article, nous proposons une procédure basée sur le prétraitement du signal EEG et la classification automatique avec des méthodes d'apprentissage supervisé, et son application pour discriminer des sujets appartenant aux classes AD, ou MCI, ou HC. Il s'agit d'une extension d'un travail préliminaire [34] dans lequel nous avons traité un ensemble de données EEG composé de 49 AD, 37 MCI et 14 sujets témoins sains (HC) au moyen d'une analyse spectrale basée sur la transformation de Fourier, et nous avons classé automatiquement avec des méthodes d'apprentissage automatique supervisé. Ici, nous avons augmenté le nombre de sujets HC de l'ensemble de données à 23 afin d'équilibrer le nombre d'échantillons pour chaque catégorie. Nous avons également amélioré les techniques de prétraitement du signal EEG et d'analyse du spectre grâce à l'application de la transformée en ondelettes en tant que méthode efficace de réduction du bruit et d'extraction de caractéristiques, obtenant une méthode plus fiable pour distinguer les sujets sains des sujets malades.


La classification des signaux clignotants basés sur l'EEG : un apprentissage par transfert et un pipeline forestier aléatoire

La technologie Brain Computer-Interface (BCI) joue un rôle considérable dans le contrôle des dispositifs de rééducation ou périphériques pour les patients victimes d'un AVC. Cela est notamment dû à leur incapacité à contrôler de tels dispositifs à partir de leurs limitations physiques inhérentes après une telle attaque. Le plus souvent, le contrôle de ces appareils exploite les signaux d'électroencéphalogramme (EEG). Néanmoins, il convient de noter que l'extraction des caractéristiques et la classification des signaux ne sont pas triviales pour un système BCI réussi. L'utilisation de l'apprentissage par transfert (TL) s'est avérée être un outil puissant dans l'extraction de caractéristiques essentielles. Cependant, l'utilisation d'une telle méthode vers des applications BCI, en particulier en ce qui concerne les signaux EEG, est quelque peu limitée. La présente étude vise à évaluer l'efficacité de différents modèles TL dans l'extraction de caractéristiques pour la classification des signaux EEG basés sur le clin d'œil. Les caractéristiques extraites sont classées au moyen d'un classificateur de forêt aléatoire (RF) affiné. Les signaux EEG bruts sont transformés en une image de scalogramme via la transformation en ondelettes continue (CWT) avant d'être introduits dans les modèles TL, à savoir InceptionV3, Inception ResNetV2, Xception et MobileNet. L'ensemble de données a été divisé en ensembles de données d'entraînement, de validation et de test, respectivement, via un rapport stratifié de 60:20:20. Les hyperparamètres des modèles RF ont été optimisés grâce à l'approche de recherche par grille, dans laquelle la technique de validation croisée en cinq étapes a été adoptée. Les performances optimisées du classificateur RF ont été comparées aux performances conventionnelles du classificateur CNN basé sur TL. Il a été démontré à partir de l'étude que le meilleur modèle TL identifié est Inception ResNetV2 avec un pipeline RF optimisé, car il a pu donner une précision de classification de 100 % sur l'ensemble de données d'entraînement et de validation. Par conséquent, il a pu être établi à partir de l'étude qu'une efficacité de classification comparable est réalisable via Inception ResNetV2 avec un pipeline RF optimisé. Il est envisagé que la mise en œuvre de l'architecture proposée dans un système BCI permettrait potentiellement aux patients post-AVC de mener une meilleure qualité de vie.


La classification des signaux clignotants basés sur l'EEG : un apprentissage par transfert et un pipeline forestier aléatoire

La technologie Brain Computer-Interface (BCI) joue un rôle considérable dans le contrôle des dispositifs de rééducation ou périphériques pour les patients victimes d'un AVC. Cela est notamment dû à leur incapacité à contrôler de tels dispositifs à partir de leurs limitations physiques inhérentes après une telle attaque. Le plus souvent, le contrôle de ces appareils exploite les signaux d'électroencéphalogramme (EEG). Néanmoins, il convient de noter que l'extraction des caractéristiques et la classification des signaux ne sont pas triviales pour un système BCI réussi. L'utilisation de l'apprentissage par transfert (TL) s'est avérée être un outil puissant dans l'extraction de caractéristiques essentielles. Cependant, l'utilisation d'une telle méthode vers des applications BCI, en particulier en ce qui concerne les signaux EEG, est quelque peu limitée. La présente étude vise à évaluer l'efficacité de différents modèles TL dans l'extraction de caractéristiques pour la classification des signaux EEG basés sur un clin d'œil. Les caractéristiques extraites sont classées au moyen d'un classificateur de forêt aléatoire (RF) affiné. Les signaux EEG bruts sont transformés en une image de scalogramme via une transformation en ondelettes continue (CWT) avant d'être introduits dans les modèles TL, à savoir InceptionV3, Inception ResNetV2, Xception et MobileNet. L'ensemble de données a été divisé en ensembles de données d'entraînement, de validation et de test, respectivement, via un rapport stratifié de 60:20:20. Les hyperparamètres des modèles RF ont été optimisés grâce à l'approche de recherche par grille, dans laquelle la technique de validation croisée en cinq étapes a été adoptée. Les performances optimisées du classificateur RF ont été comparées aux performances conventionnelles du classificateur CNN basé sur TL. Il a été démontré à partir de l'étude que le meilleur modèle TL identifié est Inception ResNetV2 avec un pipeline RF optimisé, car il a pu donner une précision de classification de 100 % sur l'ensemble de données d'entraînement et de validation. Par conséquent, il a pu être établi à partir de l'étude qu'une efficacité de classification comparable est réalisable via Inception ResNetV2 avec un pipeline RF optimisé. Il est envisagé que la mise en œuvre de l'architecture proposée dans un système BCI permettrait potentiellement aux patients post-AVC de mener une meilleure qualité de vie.


Examen de l'extraction et de la classification des caractéristiques émotionnelles à l'aide de signaux EEG

En tant que réponse subjectivement psychologique et physiologique à des stimuli externes, l'émotion est omniprésente dans notre vie quotidienne. Avec le développement continu de l'intelligence artificielle et de la science du cerveau, la reconnaissance des émotions devient rapidement un domaine de recherche multidisciplinaire grâce aux signaux EEG. Cet article examine la littérature scientifique pertinente au cours des cinq dernières années et passe en revue les méthodes d'extraction de caractéristiques émotionnelles et les méthodes de classification utilisant des signaux EEG. Les méthodes d'analyse d'extraction de caractéristiques couramment utilisées comprennent l'analyse du domaine temporel, l'analyse du domaine fréquentiel et l'analyse du domaine temps-fréquence. Les méthodes de classification largement utilisées incluent des algorithmes d'apprentissage automatique basés sur Support Vector Machine (SVM), k-Nearest Neighbor (KNN), Naive Bayes (NB), etc., et leur précision de classification varie de 57,50% à 95,70%. La précision de classification des algorithmes d'apprentissage en profondeur basés sur le réseau neuronal (NN), la mémoire à long et à court terme (LSTM) et le réseau de croyances profondes (DBN) varie de 63,38 % à 97,56 %.


Contenu

Méthodes du domaine fréquentiel Modifier

L'analyse du domaine fréquentiel, également connue sous le nom d'analyse spectrale, est la méthode la plus conventionnelle mais l'une des plus puissantes et standard pour l'analyse EEG. Il donne un aperçu des informations contenues dans le domaine fréquentiel des formes d'onde EEG en adoptant des méthodes statistiques et de transformée de Fourier. [3] Parmi toutes les méthodes spectrales, l'analyse spectrale de puissance est la plus couramment utilisée, car le spectre de puissance reflète le « contenu fréquentiel » du signal ou la distribution de la puissance du signal sur la fréquence. [4]

Méthodes du domaine temporel Modifier

Il existe deux méthodes importantes pour l'analyse EEG dans le domaine temporel : la prédiction linéaire et l'analyse en composants. Généralement, la prédiction linéaire donne la valeur estimée égale à une combinaison linéaire de la valeur de sortie passée avec la valeur d'entrée présente et passée. Et l'analyse des composants est une méthode non supervisée dans laquelle l'ensemble de données est mappé à un ensemble de fonctionnalités. [5] Notamment, les paramètres dans les méthodes du domaine temporel sont entièrement basés sur le temps, mais ils peuvent également être extraits des moments statistiques du spectre de puissance. En conséquence, la méthode du domaine temporel établit un pont entre l'interprétation du temps physique et l'analyse spectrale conventionnelle. [6] En outre, les méthodes du domaine temporel offrent un moyen de mesurer en ligne les propriétés de base du signal au moyen d'un calcul basé sur le temps, ce qui nécessite un équipement moins complexe par rapport à l'analyse fréquentielle conventionnelle. [7]

Méthodes du domaine temps-fréquence Modifier

La transformation en ondelettes, une méthode typique du domaine temps-fréquence, peut extraire et représenter des propriétés à partir de signaux biologiques transitoires. Plus précisément, grâce à la décomposition en ondelettes des enregistrements EEG, les caractéristiques transitoires peuvent être capturées et localisées avec précision dans le contexte temporel et fréquentiel. [8] Ainsi, la transformation en ondelettes est comme un microscope mathématique qui peut analyser différentes échelles de rythmes neuronaux et étudier les oscillations à petite échelle des signaux cérébraux tout en ignorant la contribution des autres échelles. [9] [10] Outre la transformation en ondelettes, il existe une autre méthode temps-fréquence de premier plan appelée transformation de Hilbert-Huang, qui peut décomposer les signaux EEG en un ensemble de composants oscillatoires appelés fonction de mode intrinsèque (IMF) afin de capturer des données de fréquence instantanées. . [11] [12]

Méthodes non linéaires Modifier

De nombreux phénomènes dans la nature sont non linéaires et non stationnaires, de même que les signaux EEG. Cet attribut ajoute plus de complexité à l'interprétation des signaux EEG, rendant les méthodes linéaires (méthodes mentionnées ci-dessus) limitées. Depuis 1985, date à laquelle deux pionniers de l'analyse EEG non linéaire, Rapp et Bobloyantz, ont publié leurs premiers résultats, la théorie des systèmes dynamiques non linéaires, également appelée « théorie du chaos », a été largement appliquée au domaine de l'analyse EEG. [13] Pour effectuer une analyse EEG non linéaire, les chercheurs ont adopté de nombreux paramètres non linéaires utiles tels que l'exposant de Lyapunov, la dimension de corrélation et des entropies telles que l'entropie approximative et l'entropie de l'échantillon. [14] [15]

Méthodes ANN Modifier

La mise en œuvre des réseaux de neurones artificiels (ANN) est présentée pour la classification des signaux d'électroencéphalogramme (EEG). Dans la plupart des cas, les données EEG impliquent un prétraitement de transformation en ondelettes avant d'être insérées dans les réseaux de neurones. [16] [17] RNN (réseaux neuronaux récurrents) a été une fois considérablement appliqué dans les études d'implémentations ANN dans l'analyse EEG. [18] [19] Jusqu'à l'essor de l'apprentissage profond et des CNN (réseaux de neurones convolutifs), la méthode CNN devient un nouveau favori dans les études récentes sur l'analyse EEG utilisant l'apprentissage en profondeur. Avec une formation recadrée pour le CNN profond pour atteindre des précisions compétitives sur l'ensemble de données, CNN profond a présenté une performance de décodage supérieure. [20] De plus, les grandes données EEG, en tant qu'entrée d'ANN, nécessitent un stockage sûr et des ressources de calcul élevées pour le traitement en temps réel. Pour relever ces défis, un apprentissage en profondeur basé sur le cloud a été proposé et présenté pour l'analyse en temps réel de grandes données EEG. [21]

Clinique Modifier

L'analyse EEG est largement utilisée dans le diagnostic et l'évaluation des maladies cérébrales. Dans le domaine des crises d'épilepsie, la détection des décharges épileptiformes à l'EEG est un élément important dans le diagnostic de l'épilepsie. Des analyses minutieuses des enregistrements EEG peuvent fournir des informations précieuses et une meilleure compréhension des mécanismes à l'origine des troubles épileptiques. [22] En outre, l'analyse EEG aide également beaucoup à la détection de la maladie d'Alzheimer, [23] des tremblements, etc.

BCI (Interface cerveau-ordinateur) Modifier

Les enregistrements EEG pendant l'imagerie motrice droite et gauche permettent d'établir un nouveau canal de communication.[24] Sur la base d'une analyse EEG en temps réel avec des modèles spatiaux spécifiques au sujet, une interface cerveau-ordinateur (BCI) peut être utilisée pour développer une réponse binaire simple pour le contrôle d'un appareil. Un tel BCI basé sur l'EEG peut aider, par exemple, les patients atteints de sclérose latérale amyotrophique, avec certaines activités quotidiennes.

Outil d'analyse Modifier

Brainstorm est une application collaborative open source dédiée à l'analyse d'enregistrements cérébraux, notamment MEG, EEG, fNIRS, ECoG, électrodes de profondeur et neurophysiologie invasive animale. [25] L'objectif de Brainstorm est de partager un ensemble complet d'outils conviviaux avec la communauté scientifique en utilisant MEG/EEG comme technique expérimentale. Brainstorm propose une interface graphique riche et intuitive pour les médecins et les chercheurs, qui ne nécessite aucune connaissance en programmation. Certains autres logiciels d'analyse open source relatifs incluent FieldTrip, etc.

Autres Modifier

Combinée à l'analyse des expressions faciales, l'analyse EEG offre la fonction de détection continue des émotions, qui peut être utilisée pour retrouver les traces émotionnelles des vidéos. [26] Certaines autres applications incluent la cartographie cérébrale basée sur l'EEG, le crypteur personnalisé basé sur l'EEG, le système d'annotation d'images basé sur l'EEG, etc.


Classification des signaux EEG - Psychologie

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux. Pour les articles publiés sous une licence Creative Common CC BY en accès libre, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant publication.

L'article de fond peut être soit un article de recherche original, soit une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type d'article donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Fond

La démence est un large groupe de troubles cérébraux conduisant à une déficience cognitive en raison d'un dysfonctionnement progressif et de la mort des cellules cérébrales. Le World Alzheimer Report 2015 a estimé que 36 millions de personnes vivaient avec la démence en 2010, doublant presque tous les 20 ans pour atteindre 66 millions en 2030 et 115 millions en 2050 [1]. Compte tenu de la croissance continue de l'incidence de cette maladie, la démence représente l'un des principaux fléaux de la société moderne. La cause la plus répandue de démence est la maladie d'Alzheimer (MA), qui implique de graves pertes de mémoire, des troubles cognitifs et des changements de comportement. Ainsi, la MA interfère avec le fonctionnement quotidien, social et professionnel des patients, affectant également la vie quotidienne de leurs familles [2]. Le stade intermédiaire entre le déficit cognitif normal dû au vieillissement et la démence est défini comme une déficience cognitive légère (MCI). Plusieurs symptômes distinguent le MCI, mais la perte de mémoire est un facteur de risque de développer la MA [3]. En Europe, seulement 50 % des patients atteints de démence reçoivent un diagnostic par un centre spécialisé et les tests de démence sont effectués après que le patient a déjà commencé à présenter des symptômes et que la maladie a progressé [4]. Habituellement, le processus d'obtention d'un diagnostic clinique de démence d'un patient repose principalement sur la remise d'un questionnaire afin d'évaluer ses capacités cognitives. Cependant, un diagnostic rapide faciliterait les soins, réduirait la progression de la maladie et améliorerait la prise en charge du patient pour alléger le fardeau. Cela pourrait être réalisé grâce à une combinaison de critères de diagnostic et de biomarqueurs fiables.

Au cours des dernières années, des progrès significatifs ont été réalisés pour détecter les premiers stades de la démence grâce à des biomarqueurs biochimiques, génétiques, neuro-imagerie et neurophysiologiques tels que l'électroencéphalographie (EEG) [5-9]. L'EEG fournit l'activité électrique du cerveau en suivant la connectivité des neurones dans les sites d'enregistrement du cuir chevelu [10], en la traitant avec une précision de l'ordre de la milliseconde. L'état de la physiologie cérébrale peut être déduit des signaux EEG enregistrés, et ainsi des anomalies peuvent être identifiées grâce à la détection de modèles de fréquence inhabituels [11]. En effet, différents rythmes avec diverses bandes de fréquences décrivent l'activité du cerveau et peuvent être enregistrés par EEG. Parmi eux, les principaux sont alpha (8-13 Hz, 30-50 ??V amplitude), bêta (13-30 Hz, 5-30 ??V amplitude), gamma (≥ 30 Hz), delta (0,5-4 Hz), et thêta (4-7 Hz, 20??V amplitude).

Bien qu'il se caractérise par une résolution spatiale plus faible que les autres techniques de neuroimagerie, l'EEG offre une résolution temporelle élevée [12]. De plus, l'EEG est non invasif, facile et plus rapide à utiliser et capable de différencier la gravité de la démence à un coût inférieur à celui des autres appareils d'imagerie [13, 14]. Grâce à ses coûts réduits, l'EEG peut être facilement mis en œuvre pour le dépistage de la population afin de détecter des biomarqueurs précliniques.

L'analyse du signal EEG peut fournir des indications utiles sur les schémas de l'activité cérébrale et prédire les stades de la démence [15, 16] en raison de sa capacité significative à détecter les anomalies du rythme cérébral, généralement corrélées à la gravité des troubles cognitifs [17]. En particulier, différentes études cliniques confirment que l'EEG est une technique appropriée pour détecter précocement la MA [18-20], en raison des effets suivants sur les signaux EEG : réduction de la complexité, perturbation de la synchronie et ralentissement des rythmes [19, 21, 22]. Le ralentissement des rythmes dans les signaux EEG des sujets atteints de MA peut s'expliquer par un gain de l'activité dans les gammes de fréquences thêta et delta, et une diminution de l'activité dans les gammes de fréquences alpha et bêta [23-26]. La réduction de la complexité des schémas temporels EEG peut s'expliquer par une modification de l'architecture du réseau neuronal observée chez les sujets atteints de MA [27, 28] en raison de la perte de neurones et de l'altération des interactions fonctionnelles qui rendent l'activité du cerveau plus prévisible, plus réguliers et plus simples que dans les échantillons témoins sains (HC) [29]. Par conséquent, nous pouvons affirmer que les signaux EEG liés aux sujets témoins sains peuvent être distingués de ceux des sujets affectés par des maladies neurodégénératives (par exemple, la MA) ou d'autres pathologies (par exemple, l'épilepsie).

Néanmoins, les sujets AD et MCI sont caractérisés par une énorme variabilité et, par conséquent, les artefacts discriminants et les similitudes de modèles avec l'activité cérébrale physiologique restent toujours un problème crucial. À cet égard, le traitement du signal EEG intégré à des algorithmes de calcul basés sur des méthodes d'apprentissage automatique peut contribuer à une meilleure compréhension de la maladie et simplifier le travail des neurologues en fournissant un outil supplémentaire pour diagnostiquer le stade de la démence [20, 30-33].

Dans cet article, nous proposons une procédure basée sur le prétraitement du signal EEG et la classification automatique avec des méthodes d'apprentissage supervisé, et son application pour discriminer des sujets appartenant aux classes AD, ou MCI, ou HC. Il s'agit d'une extension d'un travail préliminaire [34] dans lequel nous avons traité un ensemble de données EEG composé de 49 AD, 37 MCI et 14 sujets témoins sains (HC) au moyen d'une analyse spectrale basée sur la transformation de Fourier, et nous avons classé automatiquement avec des méthodes d'apprentissage automatique supervisé. Ici, nous avons augmenté le nombre de sujets HC de l'ensemble de données à 23 afin d'équilibrer le nombre d'échantillons pour chaque catégorie. Nous avons également amélioré les techniques de prétraitement du signal EEG et d'analyse du spectre grâce à l'application de la transformée en ondelettes en tant que méthode efficace de réduction du bruit et d'extraction de caractéristiques, obtenant une méthode plus fiable pour distinguer les sujets sains des sujets malades.


Classification du comportement cognitif à partir des signaux EEG du cuir chevelu

L'électroencéphalographie (EEG) est devenue de plus en plus précieuse en dehors de son utilisation traditionnelle en neurologie. L'EEG est maintenant utilisé pour le diagnostic neuropsychiatrique, l'évaluation neurologique des lésions cérébrales traumatiques, la neurothérapie, les jeux, le neurofeedback, la pleine conscience et l'entraînement à l'amélioration cognitive. La tendance à augmenter le nombre d'électrodes EEG, le développement de nouvelles méthodes analytiques et la disponibilité de grands ensembles de données ont créé un défi d'analyse de données pour trouver le "signal d'intérêt" qui transmet le plus d'informations sur l'effort cognitif en cours. En conséquence, nous comparons trois types courants de mesures de synchronie neuronale qui sont appliquées à l'analyse de la puissance EEG, au verrouillage de phase et au couplage phase-amplitude pour évaluer quelle mesure analytique fournit la meilleure séparation entre les signaux EEG qui ont été enregistrés, tandis que les sujets sains ont effectué huit tests cognitifs. tâches-Test d'apprentissage verbal de Hopkins et sa version retardée, test de Stroop, test de modalité des chiffres de symboles, test d'association de mots oraux contrôlés, test de marquage de piste, test de portée des chiffres et test de rétention visuelle de Benton. Nous constatons que des trois méthodes analytiques, le couplage phase-amplitude, en particulier thêta (4-7 Hz)-gamma élevé (70-90 Hz) obtenu à partir des électrodes EEG frontales et pariétales fournit à la fois la plus grande séparation entre l'EEG pendant les tâches cognitives et également la plus grande précision de classification entre les paires de tâches. Nous constatons également que l'analyse à verrouillage de phase fournit le regroupement de tâches le plus distinct en fonction de leur utilisation de la mémoire à long terme. Enfin, nous montrons que le couplage phase-amplitude est le moins sensible à la contamination par un artefact musculaire intense de serrage des mâchoires.

Les figures

Collecte et analyse de données fondamentales.…

Collecte et analyse de données fondamentales. (A) Exemple de tracés EEG de 16 électrodes de cuir chevelu…

L'ensemble de données EEG spécifique à la tâche. À travers le sujet…

L'ensemble de données EEG spécifique à la tâche. Moyennes inter-sujets des vecteurs d'activité au cours de huit tâches cognitives…

Discrimination à l'aide de montages minimaux et…

Discrimination à l'aide de montages minimaux et de bandes de fréquences. (A) Distance euclidienne moyenne calculée entre…

Précision de la classification des tâches. (A) Classement…

Précision de la classification des tâches. (A) Précision de la classification entre les paires de tâches lors de l'utilisation uniquement…

Les mesures EEG spécifiques à la tâche forment des clusters…

Les mesures EEG spécifiques à la tâche forment des grappes dans l'espace PCA. (A) Regroupement des tâches dans…

Artefacts oculaires et estimation de phase…

Artefacts oculaires et méthodes d'estimation de phase. (A) Précision de la classification de l'ensemble de données POWER sans…

Sensibilité aux artefacts musculaires. (UNE)…

Sensibilité aux artefacts musculaires. (A) Rapport logarithmique de la puissance estimée pendant le serrage de la mâchoire…


5. Conclusions

La classification de l'apprentissage en profondeur a été appliquée avec succès à de nombreuses tâches EEG, notamment l'imagerie motrice, la détection des crises, la charge de travail mentale, la notation du stade du sommeil, le potentiel lié aux événements et les tâches de reconnaissance des émotions. La conception de ces études de réseau approfondies variait considérablement en fonction de la formulation des entrées et de la conception du réseau. Plusieurs ensembles de données publics ont été analysés dans plusieurs études, ce qui nous a permis de comparer directement les performances de classification en fonction de leur conception. En règle générale, les réseaux CNN, RNN et DBN ont surpassé les autres types de réseaux profonds, tels que les SAE et les MLPNN. De plus, CNN a obtenu de meilleurs résultats lors de l'utilisation de valeurs de signal ou d'images (spectrogrammes) comme entrées, tandis que DBN a obtenu de meilleurs résultats lors de l'utilisation de valeurs de signal ou de caractéristiques calculées comme entrées. Nous avons ensuite discuté des recommandations de réseau approfondies pour chaque type de tâche spécifique. Ce diagramme de recommandation a été fourni dans l'espoir qu'il guidera le déploiement de l'apprentissage en profondeur dans les ensembles de données EEG dans les recherches futures. Les conceptions hybrides incorporant des couches convolutives avec des couches récurrentes ou des machines de Boltzmann restreintes se sont révélées prometteuses en termes de précision de classification et d'apprentissage par transfert par rapport aux conceptions standard. Nous recommandons une recherche plus approfondie de ces combinaisons, en particulier le nombre et la disposition des différentes couches, y compris les RBM, les couches récurrentes, les couches convolutives et les couches entièrement connectées. En dehors de la conception du réseau, nous encourageons également d'autres recherches pour comparer la façon dont les réseaux profonds interprètent l'EEG brut par rapport à l'EEG débruité, car cela n'a pas encore été spécifiquement évalué.


Résultats

Les performances des classificateurs dans l'étude sont évaluées par le taux de précision obtenu à partir de la matrice de confusion. La valeur de précision ( A C C ) est obtenue à partir de la matrice de confusion par (6). La sensibilité (Sens) calcule le taux d'estimation correct de la classe positive par (7). FPR donne le taux de fausse estimation de la classe négative par (8). La précision (PRC) calcule combien de prédictions positives sont réellement positives par (9) (Arican & Polat, 2019).

(6) A C C % = T P + F P T P + T N + F P + F N × 100

Le coefficient Kappa est une méthode statistique qui mesure la fiabilité de l'accord comparatif entre deux évaluateurs, et ce coefficient est calculé par (10)–(13) (Cohen, 1960). Ici, p1 est la probabilité qu'une étiquette choisie au hasard dans l'ensemble de données soit positive, et p2 est la probabilité que le classificateur la trouve positive.

(10) K a p p a = A C C − r a n d o m A C C 1 − r a n d o m A C C

(11) r a n d o m A C C = p 1 p 2 + ( 1 − p 1 ) ( 1 − p 2 )

(12) p 1 = T P + F N T P + T N + F P + F N

(13) p 1 = T P + F N T P + T N + F P + F N

Dans cette étude, l'erreur de classification se compose de deux parties. La première est le taux d'erreur du modèle, tandis que la seconde partie est un intervalle de confiance (IC). La deuxième partie est la probabilité de tomber dans cette fourchette. En CI, la constante indique la valeur du tableau par rapport à la probabilité choisie, et le m est le nombre d'observations utilisées lors de l'élaboration du modèle. Les taux d'erreur pour tous les classificateurs ont été mesurés avec un intervalle de confiance de 95 %. L'erreur catégorielle est calculée avec (14)–(16) (Brownlee, 2020).

(14) erreur = F P + F N T P + T N + F P + F N

(15) C I = c o n s t a n t e r r o r ( 1 − e r r o r ) n

(16) C l a s s i f i c a t i o n E r r ou = e r r ou ± C I

Tous les processus de classification sont effectués avec une validation croisée k fois, k = 10. La validation croisée sépare l'ensemble de données en dix ensembles d'entraînement et de test distincts, et chaque fois que le classificateur est entraîné et testé avec des données différentes (Arican & Polat, 2019). Les données d'apprentissage du logiciel sont de 90 % et les données de test sont de 10 %, discriminant automatiquement et aléatoirement les deux classes. Dans ce sens, 174 des 1740 observations, différentes pour chaque étage, sont utilisées comme apprentissage et le reste du test.

Les résultats obtenus avec des caractéristiques non pondérées

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur kNN sont présentés dans le tableau 4. Là où le signal EEG a donné le résultat le plus élevé pour le classificateur kNN, il est resté à 56,781%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 48.965 0.480 0.519 0.489 −0.020 0.510 ± 0.023
HbR 52.011 0.544 0.455 0.519 0.040 0.480 ± 0.023
EEG 56.781 0.565 0.434 0.568 0.135 0.432 ± 0.023
EEG+HbO 52.988 0.498 0.501 0.531 0.059 0.470 ± 0.023
EEG+HbR 52.586 0.537 0.462 0.525 0.051 0.474 ± 0.023
HbO+HbR 49.770 0.514 0.485 0.497 −0.004 0.502 ± 0.023

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur LDA sont donnés dans le tableau 5. De même, le signal EEG a donné le résultat le plus élevé pour le classificateur LDA, il est resté 60,460%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 51.782 0.511 0.489 0.518 0.036 0.482 ± 0.023
HbR 54.253 0.551 0.449 0.542 0.085 0.457 ± 0.023
EEG 60.460 0.615 0.385 0.602 0.209 0.395 ± 0.023
EEG+HbO 50.977 0.544 0.456 0.509 0.020 0.490 ± 0.023
EEG+HbR 55.460 0.567 0.433 0.553 0.109 0.445 ± 0.023
HbO+HbR 52.816 0.572 0.428 0.526 0.056 0.472 ± 0.023

Les résultats de classification de l'ensemble de données MI effectués sans appliquer le processus de pondération pour le classificateur SVM sont donnés dans le tableau 6. Encore une fois, le signal EEG a donné la plus grande précision pour le classificateur SVM, il est resté 60,402%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 52.184 0.549 0.451 0.521 0.044 0.478 ± 0.023
HbR 53.046 0.551 0.449 0.529 0.061 0.470 ± 0.023
EEG 60.402 0.603 0.397 0.604 0.208 0.396 ± 0.023
EEG+HbO 57.874 0.594 0.406 0.576 0.157 0.421 ± 0.023
EEG+HbR 59.943 0.632 0.368 0.593 0.199 0.401 ± 0.023
HbO+HbR 53.103 0.530 0.470 0.531 0.062 0.469 ± 0.023

Les résultats de la classification de l'ensemble de données MA effectué sans appliquer le processus de pondération sont présentés dans le tableau 7. Là où les données EEG ont donné le taux de précision le plus élevé pour le classificateur kNN, il est resté à 62,701%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 56.724 0.556 0.444 0.569 0.134 0.433 ± 0.023
HbR 57.701 0.586 0.414 0.576 0.154 0.423 ± 0.023
EEG 62.701 0.663 0.337 0.618 0.254 0.373 ± 0.023
EEG+HbO 60.402 0.611 0.389 0.602 0.208 0.396 ± 0.023
EEG+HbR 61.552 0.675 0.325 0.603 0.231 0.384 ± 0.023
HbO+HbR 56.724 0.556 0.444 0.569 0.134 0.425 ± 0.023

Les résultats de classification obtenus sur l'ensemble de données MA sans appliquer le processus de pondération sont présentés dans le tableau 8. Les données HbO ont donné le taux de précision le plus élevé pour le classificateur LDA, il est resté à 66,332%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 66.322 0.667 0.333 0.662 0.326 0.337 ± 0.022
HbR 63.966 0.656 0.344 0.635 0.279 0.360 ± 0.023
EEG 65.805 0.676 0.324 0.653 0.316 0.342 ± 0.022
EEG+HbO 59.885 0.653 0.347 0.589 0.198 0.401 ± 0.023
EEG+HbR 61.494 0.640 0.360 0.609 0.230 0.385 ± 0.023
HbO+HbR 63.391 0.725 0.275 0.613 0.268 0.366 ± 0.023

Les résultats de la classification de l'ensemble de données MA effectué sans appliquer le processus de pondération sont présentés dans le tableau 9. Là où les données EEG + HbO ont donné le taux de précision le plus élevé pour le classificateur SVM, il est resté à 74,138%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 65.460 0.653 0.347 0.655 0.309 0.345 ± 0.022
HbR 64.770 0.647 0.353 0.648 0.295 0.352 ± 0.022
EEG 70.920 0.721 0.279 0.704 0.418 0.291 ± 0.021
EEG+HbO 74.138 0.743 0.257 0.741 0.483 0.259 ± 0.021
EEG+HbR 72.241 0.707 0.293 0.730 0.445 0.278 ± 0.021
HbO+HbR 70.287 0.694 0.306 0.706 0.406 0.297 ± 0.021

La figure 5 montre les résultats de la classification des tâches MI et MA non pondérées pour les trois classificateurs. Bien que la tâche MA ait donné une précision plus élevée que la tâche MI, elle est restée à des niveaux assez bas.

Figure 5 : La comparaison des tâches MI et MA non pondérées pour tous les classificateurs.

Les résultats obtenus avec des caractéristiques pondérées

Sur la figure 6, la distribution des données pour la caractéristique 1 et la caractéristique 2 pour le signal EEG+HbO appartenant à la tâche MI sélectionnée au hasard est donnée. La figure 6A montre la distribution des données non pondérées, la figure 6B la distribution de données pondérée basée sur KMCC et la figure 6C la distribution de données pondérée basée sur KMCCD. La séparation des données pondérées peut être un aperçu. La figure 7 montre la comparaison des 1ère et 2ème caractéristiques pour les données non pondérées et pondérées de l'ensemble de caractéristiques HbO des tâches MA.

Figure 6 : La comparaison des caractéristiques 1 et 2 pour les données non pondérées et pondérées à l'aide de l'ensemble de caractéristiques EEG des tâches MI, (A) caractéristiques EEG non pondérées, (B) caractéristiques EEG pondérées KMCC et (C) caractéristiques EEG pondérées KMCCD .

Figure 7 : La comparaison des caractéristiques 1 et 2 pour les données non pondérées et pondérées à l'aide de l'ensemble de caractéristiques HbO des tâches MA, (A) caractéristiques HbO non pondérées, (B) caractéristiques HbO pondérées KMCC et (C) caractéristiques HbO pondérées KMCCD .

Méthode de pondération des attributs basée sur les centres de clustering k-means (basée sur KMCC)

Le tableau 10 montre les résultats des jeux de données d'entités pour la tâche MI pour laquelle l'algorithme de pondération basé sur KMCC est appliqué. Les données EEG+HBR atteignent un taux de précision de 99,540%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 95.920 0.962 0.038 0.957 0.918 0.041 ± 0.009
HbR 95.747 0.924 0.076 0.990 0.915 0.043 ± 0.009
EEG 95.172 0.922 0.078 0.980 0.903 0.048 ± 0.010
EEG+HbO 98.966 0.993 0.007 0.986 0.979 0.010 ± 0.005
EEG+HbR 99.540 0.997 0.003 0.994 0.991 0.005 ± 0.003
HbO+HbR 97.644 0.980 0.020 0.973 0.953 0.024 ± 0.007

Le tableau 11 montre l'ensemble de données MI pondéré basé sur le KMCC pour les résultats de la classification LDA. Les données EEG donnent la valeur la plus élevée pour le classificateur LDA, de même que les données EEG non pondérées pour le classificateur LDA avec 97,816%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 84.655 0.829 0.171 0.859 0.693 0.153 ± 0.017
HbR 88.908 0.853 0.147 0.919 0.778 0.111 ± 0.015
EEG 97.816 0.982 0.018 0.975 0.956 0.022 ± 0.007
EEG+HbO 91.667 0.994 0.006 0.861 0.833 0.083 ± 0.013
EEG+HbR 91.322 0.993 0.007 0.856 0.826 0.087 ± 0.013
HbO+HbR 70.575 0.618 0.382 0.749 0.411 0.294 ± 0.021

Le tableau 12 montre l'ensemble de données MI pondéré basé sur KMCC pour les résultats du classificateur SVM. Les données hybrides fNIRS donnent la valeur la plus élevée pour le classificateur SVM, elle est restée à 99,943%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 97.816 0.999 0.001 0.959 0.956 0.022 ± 0.007
HbR 98.736 0.980 0.020 0.994 0.975 0.013 ± 0.005
EEG 97.816 0.979 0.021 0.977 0.956 0.022 ± 0.007
EEG+HbO 98.678 0.992 0.008 0.982 0.974 0.013 ± 0.005
EEG+HbR 98.621 0.997 0.003 0.976 0.972 0.014 ± 0.005
HbO+HbR 99.943 0.999 0.001 1.000 0.999 0.001 ± 0.001

Le tableau 13 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats du classificateur kNN. Les données hybrides fNIRS donnent la valeur la plus élevée pour les données hybrides EEG + HbR et elles sont restées à 98,793%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 98.736 0.983 0.017 0.992 0.975 0.013 ± 0.005
HbR 89.138 0.783 0.217 1.000 0.783 0.109 ± 0.015
EEG 95.000 0.905 0.095 0.995 0.900 0.050 ± 0.010
EEG+HbO 98.563 0.971 0.029 1.000 0.971 0.014 ± 0.006
EEG+HbR 98.793 0.976 0.024 1.000 0.976 0.012 ± 0.005
HbO+HbR 94.425 0.889 0.111 1.000 0.889 0.056 ± 0.011

Le tableau 14 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats de la classification LDA. Les données hybrides fNIRS donnent la valeur la plus élevée pour le classificateur LDA, elle est restée à 97,356%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 91.724 0.870 0.130 0.961 0.834 0.083 ± 0.013
HbR 88.621 0.832 0.168 0.933 0.772 0.114 ± 0.015
EEG 96.034 0.944 0.056 0.976 0.921 0.040 ± 0.009
EEG+HbO 97.356 0.985 0.015 0.963 0.947 0.026 ± 0.008
EEG+HbR 96.724 0.999 0.001 0.939 0.934 0.033 ± 0.008
HbO+HbR 76.782 0.746 0.254 0.780 0.536 0.232 ± 0.020

Le tableau 15 montre l'ensemble de données MA pondéré basé sur le KMCC pour les résultats de la classification SVM. Les données hybrides fNIRS donnent la valeur la plus élevée pour les données hybrides EEG + HbR, et elles sont restées à 99,655%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 99.138 0.990 0.010 0.993 0.983 0.009 ± 0.004
HbR 97.989 0.960 0.040 1.000 0.960 0.020 ± 0.007
EEG 98.966 0.990 0.010 0.990 0.979 0.010 ± 0.005
EEG+HbO 99.425 0.999 0.001 0.990 0.989 0.006 ± 0.004
EEG+HbR 99.655 0.999 0.001 0.994 0.993 0.003 ± 0.003
HbO+HbR 94.598 0.902 0.098 0.989 0.892 0.054 ± 0.011

Tous les résultats de classification pour les tâches MI et MA sont présentés de manière comparative dans la figure 8 pour l'algorithme pondéré basé sur KMCC.

Figure 8 : Comparaison des tâches MI et MA pondérées basées sur KMCC pour tous les classificateurs.

Méthode de pondération des attributs basée sur la différence des centres de clustering k-means (basée sur le KMCCD)

Le tableau 16 montre les résultats des ensembles de données d'entités pour la tâche MI pour laquelle l'algorithme de pondération basé sur KMCCD est appliqué pour le classificateur kNN. Le classificateur kNN, qui a les taux de précision les plus bas dans le processus de classification non pondéré, a atteint un taux de précision de 99,655% (pour les caractéristiques EEG + HbR) comme dans KMCC.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 91.494 0.964 0.036 0.878 0.830 0.085 ± 0.013
HbR 90.920 0.972 0.028 0.863 0.818 0.091 ± 0.014
EEG 98.448 0.999 0.001 0.971 0.969 0.016 ± 0.006
EEG+HbO 99.540 0.998 0.002 0.993 0.991 0.005 ± 0.003
EEG+HbR 99.655 0.997 0.003 0.997 0.993 0.003 ± 0.003
HbO+HbR 94.598 0.930 0.070 0.961 0.892 0.054 ± 0.011

Le tableau 17 montre l'ensemble de données MI pondéré basé sur le KMCCD pour les résultats de la classification LDA. Les données EEG donnent la valeur la plus élevée pour le classificateur LDA, et elle est restée à 96,724%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 74.253 0.720 0.280 0.754 0.485 0.257 ± 0.021
HbR 75.000 0.757 0.243 0.746 0.500 0.250 ± 0.020
EEG 96.724 0.992 0.008 0.945 0.934 0.033 ± 0.008
EEG+HbO 93.046 0.998 0.002 0.879 0.861 0.070 ± 0.012
EEG+HbR 93.103 0.997 0.003 0.881 0.862 0.069 ± 0.012
HbO+HbR 70.230 0.832 0.168 0.661 0.405 0.298 ± 0.021

Le tableau 18 montre l'ensemble de données MI pondéré basé sur le KMCCD pour les résultats de la classification SVM. Les données EEG + HbO donnent la valeur la plus élevée pour le classificateur SVM, et elle est restée à 99,080%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 94.885 0.963 0.037 0.936 0.898 0.051 ± 0.010
HbR 96.437 0.943 0.057 0.986 0.929 0.036 ± 0.009
EEG 96.379 0.990 0.010 0.941 0.928 0.036 ± 0.009
EEG+HbO 99.080 0.993 0.007 0.989 0.982 0.009 ± 0.004
EEG+HbR 98.851 0.993 0.007 0.984 0.977 0.011 ± 0.005
HbO+HbR 81.954 0.871 0.129 0.790 0.639 0.180 ± 0.018

Le tableau 19 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification kNN. Les données EEG+HbR donnent la valeur la plus élevée pour le classificateur kNN, et il est resté à 99,885%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 92.471 0.955 0.045 0.900 0.849 0.075 ± 0.012
HbR 87.874 0.976 0.024 0.817 0.757 0.121 ± 0.015
EEG 93.966 0.886 0.114 0.992 0.879 0.060 ± 0.011
EEG+HbO 99.885 0.998 0.002 1.000 0.998 0.001 ± 0.002
EEG+HbR 99.770 0.995 0.005 1.000 0.995 0.002 ± 0.002
HbO+HbR 92.299 0.852 0.148 0.993 0.846 0.077 ± 0.013

Le tableau 20 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification LDA. Les données EEG + HbR donnent la valeur la plus élevée pour le classificateur LDA, qui est resté à 98,793%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 78.851 0.782 0.218 0.793 0.577 0.211 ± 0.019
HbR 73.046 0.741 0.259 0.726 0.461 0.270 ± 0.021
EEG 94.713 0.962 0.038 0.934 0.894 0.053 ± 0.011
EEG+HbO 98.103 0.999 0.001 0.964 0.962 0.019 ± 0.006
EEG+HbR 98.793 0.998 0.002 0.979 0.976 0.012 ± 0.005
HbO+HbR 76.724 0.693 0.307 0.814 0.534 0.233 ± 0.020

Le tableau 21 montre l'ensemble de données MA pondéré basé sur le KMCCD pour les résultats de la classification SVM. Les données EEG+HbR donnent la valeur la plus élevée pour le classificateur LDA, et elles sont restées à 99,943%.

CPA (%) SENS FPR RPC Kappa Erreur de classement
HbO 96.609 0.962 0.038 0.970 0.932 0.034 ± 0.009
HbR 97.816 0.979 0.021 0.977 0.956 0.022 ± 0.007
EEG 98.448 0.980 0.020 0.988 0.969 0.016 ± 0.006
EEG+HbO 99.713 0.997 0.003 0.998 0.994 0.003 ± 0.003
EEG+HbR 99.943 0.999 0.001 1.000 0.999 0.001 ± 0.001
HbO+HbR 85.690 0.801 0.199 0.902 0.714 0.143 ± 0.016

Tous les résultats de classification pour les tâches MI et MA sont présentés de manière comparative dans la figure 9 pour l'algorithme pondéré basé sur le KMCCD. Des performances plus élevées des fonctions de signal EEG et des fonctions hybrides sont observées.

Figure 9 : Comparaison des tâches MI et MA pondérées basées sur le KMCCD pour tous les classificateurs.

Les valeurs d'erreur de classification proches de 0 indiquent ici que le taux d'erreur dans l'étiquette sélectionnée pour les données saisies en externe est faible.


Une enquête sur la classification des signaux EEG utilisant EMD et VMD pour la détection des crises d'épilepsie

RésuméLa classification automatique des signaux épileptiques joue un rôle essentiel dans la surveillance et le diagnostic à long terme. Cet article de synthèse fournit une étude des nouvelles caractéristiques des techniques d'extraction et de classification pour la classification de l'épilepsie à l'aide d'Extreme Learning Machine (ELM) et de Support Vector Machines (SVM) pour la décomposition en mode empirique (EMD) et la décomposition en mode variationnel (VMD). Le signal EEG est décomposé en fonctions de mode intrinsèque (IMF). La variance, l'asymétrie et l'aplatissement sont extraits en tant que caractéristiques des signaux décomposés. ELM et SVM sont utilisés comme classificateur pour classer les signaux EEG. Pour VMD, le signal EEG est décomposé en fonctions de mode intrinsèque (IMF) en premier lieu qui doivent être extraites en tant que caractéristique après avoir déterminé les caractéristiques optimales à l'aide de classificateurs tels que SVM et ELM.

Mots-clés Épileptique, Électroencéphalogramme (EEG), Décomposition en mode empirique (EMD), Décomposition en mode variationnel (VMD), Machines à vecteurs de support (SVM), Extreme Learning Machine (ELM)

Traduire des pensées et des actions sans agir physiquement a toujours été un incontournable des romans de science-fiction et des films hollywoodiens. Cependant, cette idée devient rapidement une réalité : la BCI est l'une de ces avancées en neurosciences. Les origines du BCI remontent aux travaux des années 1960 de Delgado (1969) et Fetz (1969). Delgado a développé une puce implantable (qu'il a appelée un stimoceiver) qui pourrait être utilisée à la fois pour stimuler le cerveau par radio et envoyer des signaux électriques de l'activité cérébrale par télémétrie, permettant au sujet de se déplacer librement.[1] Bien que le stimoreceiver ait été utilisé à des fins totalement différentes, la BCI est devenue une technologie pivot dont les avancées en neurosciences ont été de la plus haute importance pour la communauté médicale.

Avec l'introduction d'ordinateurs plus rapides et moins chers, les progrès de nos connaissances sur le fonctionnement du cerveau, une plus grande disponibilité d'appareils d'enregistrement des signaux cérébraux et des algorithmes de traitement du signal et d'apprentissage automatique plus puissants, une poussée soudaine et durable d'intérêt et d'innovation peut être observée dans le domaine de la BCI.

Une interface cerveau-ordinateur (BCI) est une technologie qui reçoit, analyse et transfère les signaux générés par le cerveau en commandes de sortie dans le monde réel pour accomplir une tâche particulière.[2] Ce faisant, ils sont uniques, car ils n'incluent pas les voies neuromusculaires normales des nerfs périphériques et

muscles pour remplir une fonction, qui est le siège d'une pathologie chez les patients paralysés [3]. Les interfaces ordinateur-cerveau sont conçues pour restaurer la fonction sensorielle, transmettre des informations sensorielles au cerveau ou stimuler le cerveau grâce à des signaux électriques générés artificiellement.

Fig. 1 : Composants de base d'une interface cerveau-ordinateur (BCI). (Image de Rao et Scherer, 2010).

Une ou plusieurs des étapes de traitement suivantes sont généralement impliquées :

Enregistrement cérébral : Les signaux du cerveau sont enregistrés à l'aide de techniques d'enregistrement invasives ou non invasives.

Traitement du signal : les signaux bruts sont prétraités après l'acquisition (par exemple, par filtrage passe-bande) et des techniques de réduction des artefacts et d'extraction de caractéristiques sont utilisées.

Reconnaissance de modèles et apprentissage automatique : cette étape génère un signal de contrôle basé sur des modèles dans l'entrée, généralement à l'aide de techniques d'apprentissage automatique.

Retour sensoriel : Le signal de commande du BCI provoque un changement dans l'environnement (par exemple, le mouvement d'un bras prothétique ou d'un fauteuil roulant, un changement dans la prise d'une main prothétique), c'est-à-dire qu'il donne/produit une sortie. Certains de ces changements peuvent être vus, entendus ou ressentis par l'utilisateur, mais en général, on peut utiliser des capteurs dans l'environnement tels que des capteurs tactiles, des capteurs de force, des caméras et des microphones, et utiliser les informations de ces capteurs pour fournir un retour direct au cerveau par stimulation.

Traitement du signal pour la stimulation : avant de stimuler une région particulière du cerveau, il est important de synthétiser un schéma d'activité pour la stimulation qui imite le type d'activité normalement observé dans la région du cerveau et qui aura l'effet/le résultat souhaité.

Stimulation cérébrale : Le modèle de stimulation reçu du composant de traitement du signal mentionné au point 5 est utilisé en conjonction avec des techniques de stimulation invasives ou non invasives pour stimuler le cerveau.

Il ressort clairement des étapes de traitement énumérées ci-dessus que pour commencer à construire des BCI, il faut avoir une formation dans au moins quatre domaines essentiels : les neurosciences de base, les technologies d'enregistrement et de stimulation du cerveau, le traitement élémentaire du signal et les techniques de base d'apprentissage automatique.[4 ]

Comme mentionné ci-dessus, une compréhension de base des neurosciences, des technologies d'enregistrement et de stimulation des amplis, du traitement élémentaire du signal et des techniques d'apprentissage automatique est nécessaire pour comprendre les BCI.

La crise est simplement la condition médicale ou le trouble neurologique dans lequel trop de neurones sont excités en même temps, causés par une lésion cérébrale ou par un déséquilibre des produits chimiques dans le cerveau qui se caractérise principalement par des interruptions imprévisibles de la fonction cérébrale normale. L'épilepsie est une autre condition médicale caractérisée par des crises récurrentes spontanées [1]. L'épilepsie peut entraîner de nombreuses blessures telles que des fractures, une submersion, des brûlures, des accidents de la route et même la mort. Environ 1% de la population totale développe une épilepsie [2]. Il est possible de prévenir les crises d'épilepsie avec une sensibilité élevée (c'est-à-dire en détectant le signal préictal) si des changements électriques dans le cerveau qui se produisent avant le début d'une crise réelle peuvent être détectés.

Le cerveau humain traite les informations sensorielles reçues par des stimuli externes/internes. Dans le cerveau, les neurones exploitent des réactions chimiques pour générer de l'électricité afin de contrôler différentes actions corporelles et cette activité électrique continue peut être enregistrée graphiquement avec un électroencéphalogramme (EEG). Les signaux EEG représentent la nature non linéaire des signaux enregistrés dans lesquels il existe deux termes clés, à savoir état et dynamique. Les signaux EEG d'un patient épileptique peuvent être divisés en cinq périodes ou stades (i) période sans crise, aucun syndrome épileptique n'est visible, (ii) période critiquepériode épileptique réelle, normalement la durée est de 1 à 3 minutes (iii) période préictale 30 minutes à 60 minutes avant la période ictale, (iv) la période post-ictale 30 minutes après la période ictale, et (v) la période interictale entre la période post-ictale et la période pré-ictale.

Afin d'obtenir des informations cruciales si une crise va se produire ou non, il faut analyser l'état préictal des signaux EEG. Avec l'amélioration des technologies et l'augmentation du nombre de canaux de qualité, il est important de réaliser des modèles potentiellement impliqués dans les signaux EEG sur une gamme d'échelles temporelles [4].

ENREGISTRER ET STIMULER LE CERVEAU

L'EEG est une technique utilisée pour mesurer les signaux électriques produits par le cerveau qui transportent des informations sur le fonctionnement du cerveau. Ces signaux cérébraux sont enregistrés à partir des électrodes placées sur la tête, appelées EEG du cuir chevelu. Les signaux EEG intracrâniens, quant à eux, sont enregistrés en plaçant des électrodes-aiguilles dans le tissu cérébral.

Les signaux EEG sont principalement utilisés pour analyser les conditions cérébrales qui ont été menées pour explorer la qualité du sommeil, les émotions, l'attention et le fonctionnement de la mémoire via le signal P300, le dépistage de la dépression, la détection de l'épilepsie et bien d'autres. Il existe cinq types de sous-bandes du signal EEG :

Bande Delta (moins de 4 Hz)

Bande Gamma (supérieure à 40 Hz)

La forme d'onde varie en fonction de la fonction de l'association du cerveau avec différentes tâches. Par exemple, un signal EEG enregistré pendant le sommeil a un pourcentage plus élevé d'ondes longues (bandes delta et thêta) tandis que les ondes plus courtes (bandes alpha et bêta) dominent pendant le temps d'éveil.

Afin de reconnaître les modèles contenus dans les signaux EEG, les caractéristiques pertinentes doivent être extraites. Ces caractéristiques peuvent être des caractéristiques du domaine temporel, des caractéristiques du domaine fréquentiel ou les deux, où le contenu fréquentiel des signaux est révélé tout en conservant les informations sur la façon dont les signaux fluctuent dans le temps.

Le processus général de classification des signaux EEG est/papier est organisé comme suit :

Transformation des signaux EEG vers un autre domaine de traitement

Fig. 2 : Électroencéphalographie. (A) Sujet portant un capuchon EEG à 32 électrodes. (B) Système international 10-20 pour les emplacements normalisés des électrodes EEG sur la tête. C= central, P=pariétal, T=temporal, F=frontal, Fp=frontal polaire, O=occipital, A=mastoids (image A avec l'aimable autorisation de K. Miller image B de Wikimedia Commons).

ENSEMBLES DE DONNÉES DISPONIBLES POUR LA CLASSIFICATION DES SAISIES EEG L'ensemble de données EPILEPSIE appartient à la base de données européenne développée dans le cadre du projet EPILEPSIE fondé par l'UE. Jusqu'à présent, les ressources publiques pour les enregistrements EEG sont limitées. La base de données EPILEPSIE est de loin la base de données la plus grande et la plus complète pour les données EEG de surface et intracrâniennes humaines. Il convient à une large gamme d'applications, par ex. d'analyses de séries chronologiques de l'activité cérébrale. La base de données de l'UE contient des ensembles de données EEG annotés de plus de 200 patients épileptiques, dont 50 avec des enregistrements intracrâniens avec jusqu'à 122 canaux.

La variance, l'asymétrie et l'aplatissement sont pris comme caractéristiques des signaux décomposés de l'EMD. La variance (2), l'asymétrie (sk) et l'aplatissement (ku) sont respectivement donnés par :

Où est la moyenne et N est la longueur de l'IMF, est l'écart type et xi est l'IMF du signal pour le ième échantillon. Variance, Skewness et Kurtosis décrivent la dispersion, l'asymétrie et le pic de l'ensemble de données.

DÉCOMPOSITION EN MODE EMPIRIQUE

EMD signifie Décomposition en Mode Empirique. Cette méthode analyse les signaux non stationnaires et a été couramment utilisée pour analyser les signaux biologiques pour l'identification des sons pulmonaires, l'électrocardiogramme, la détection du type de crise et l'élimination des artefacts.

Cette méthode fonctionne en décomposant un signal s(t) en un certain nombre de fonctions à bande limitée connues sous le nom de fonctions de mode intrinsèque (FMI) et résiduelles en supprimant l'oscillation locale des signaux. Ces IMF doivent remplir deux conditions de base :

Le nombre d'extrema ou de passages à zéro doit être le même ou différer au plus d'un.

En tout point, la valeur moyenne de l'enveloppe définie par les maxima locaux et de l'enveloppe définie par les minima locaux est nulle.

Les IMF sont des signaux à une seule composante. Mathématiquement, le premier FMI est soustrait des données d'origine

Cette procédure est ensuite appliquée itérativement au résidu r(t) jusqu'à ce qu'il devienne constant ou ne contienne plus d'oscillations.

VIII. DÉCOMPOSITION EN MODE VARIATIONNEL

La VMD est connue sous le nom d'approche de décomposition en mode variationnelle pour la décomposition temps-fréquence des signaux EEG. Cette approche est utilisée pour surmonter les limitations de l'approche EMD. EMD utilise une approche récursive qui ne permet pas de correction en arrière et est donc incapable de gérer correctement le bruit. En VMD, en revanche, au lieu d'une approche récursive, une approche concurrente est utilisée pour extraire les IMF du signal où les fréquences centrales sont calculées dynamiquement.

Ici, une méthode adaptative est utilisée, dans laquelle le signal est décomposé en k IMF et qui donne un ensemble de modes uk avec leur fréquence centrale respective wk. La somme de ces modes représente le signal d'origine.

En VMD, l'identification des IMF est considérée comme un problème d'optimisation. L'algorithme VMD peut être brièvement résumé comme suit :

Pour chaque mode uk, le signal analytique associé est calculé à l'aide de la transformée de Hilbert afin d'obtenir un spectre fréquentiel unilatéral.

Le spectre de fréquence des modes est décalé par mélange avec une exponentielle à la fréquence centrale calculée respective.

La bande passante est estimée par le lissage gaussien du signal démodulé.

L'efficacité des paramètres (aire et fréquence moyenne des IFM) dans la classification des signaux EEG épileptiques et sans crise est évaluée à l'aide de

LS-SVM : les machines à vecteurs de support sont des modèles d'apprentissage supervisé qui constituent une méthodologie potentielle pour résoudre des problèmes dans les classifications linéaires et non linéaires, les estimations de fonctions et les méthodes d'apprentissage basées sur le noyau. Cependant, les SVM ont un inconvénient : elles offrent une charge de calcul élevée du problème d'optimisation sous contraintes. Par conséquent, pour surmonter ces inconvénients, LS-SVM, connu sous le nom de SVM des moindres carrés, une version étendue de SVM est utilisée. Il apprend les mappages non linéaires à partir des fonctionnalités de l'ensemble d'apprentissage. Pour un SVM à deux classes, nous considérons l'équation suivante :

Où w est le vecteur de poids dimensionnel l, b est le biais et g(x) est la fonction de mappage qui mappe x dans l'espace dimensionnel l.

ELM : les ELM sont des réseaux de neurones à anticipation pour la classification, la régression, le clustering, l'approximation éparse, la compression et l'apprentissage de fonctionnalités avec une seule couche de nœuds cachés, où les paramètres des nœuds cachés n'ont pas besoin d'être réglés. Le réseau de neurones à action directe unique (SFLN) possédant un nœud L-caché avec additif et fonction de base radiale (RBF) est donné par

L'ELM s'effectue en trois étapes :

Attribution aléatoire des poids d'entrée w et du biais b

Calcul de la matrice de sortie de la couche cachée

H. Détermination des poids de sortie ^=H-1T où H-1 est l'inverse généralisé de Morre Penrose de H.

En un mot, BCI est une technologie innovante qui utilise des signaux cérébraux pour contrôler un appareil externe afin d'accomplir une tâche en contournant les voies neuromusculaires normales. Le BCI a été utilisé dans des applications médicales telles que la détection des crises, les rotations sensorielles, les rotations motrices et la rééducation. Parmi ces détections d'épilepsie a fait l'objet de nombreuses recherches. Cet article de synthèse tente de présenter la détection de l'épilepsie par EEG

signaux. Des techniques EMD et VMD sont proposées pour réduire les signaux d'entrée dans les IMF respectives. Ces signaux subissent ensuite une extraction de caractéristiques pour sélectionner les caractéristiques appropriées à classer. Des classificateurs comme SVM et ELM (Extreme Learning Machine) ont été appliqués. Les procédés susmentionnés peuvent être avantageux dans la classification de signaux biologiques tels que la maladie d'Alzheimer et la SEP.

Je remercie le Dr Sharmishta Desai, professeur adjoint au MIT-World Peace University, Pune pour m'avoir aidé à me guider avec des connaissances suffisantes pour rédiger cet article et pour les commentaires qui ont grandement amélioré le manuscrit. Je lui suis immensément reconnaissante pour ses commentaires sur les versions antérieures des manuscrits,

bien que toutes les erreurs soient les miennes et ne devraient pas ternir la réputation de cette personne estimée.

Guido Domhege, Jose del R. Milan, Thilo Hinterberger, Dennis J. McFarland, Klaus-Robert Muller, Toward Brain-Computer Interfacing: The MIT Press (2007)

Shiv Kumar Mudgal, Suresh K Sharma, Jitendra Chaturvedi, Anil Sharma, Avancement de l'interface cerveau-ordinateur en neurosciences : applications et enjeux


Voir la vidéo: Reseau-Lucioles: déroulement de lEEG (Juin 2022).


Commentaires:

  1. Skylor

    Je sais que c'est plutôt cool



Écrire un message