1) O documento descreve um projeto que usa uma rede de sensores sem fio para classificar anuros (sapos e pererecas) com base em seus chamados, a fim de monitorar o estresse ecológico.
2) Os sensores detectam os chamados, extraem características de áudio e classificam as espécies usando técnicas de aprendizado de máquina.
3) Os resultados mostram que a fusão dos resultados dos sensores melhora a classificação em comparação com um sensor individual, mas o ganho é pequeno, enquant
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Classificação de Anuros usando Rede de Sensores Sem Fio
1. Classificação de Anuros usando
Rede de Sensores Sem Fio
Juan Gabriel Colonna
Eduardo Freire Nakamura
Instituto de Computação (Icomp)
Universidade Federal do Amazonas (UFAM)
2. Projeto ANURA
Objetivo: Determinar estresse ecológico usando como
indicador as variações das populações de anuros.
Sensíveis às mudanças
do ecossistema
A. andreae
Detecção do som
Leptodactylus hylaedactylus
Lima, A.P.; Erdtmann, L.K.; Ferrão, M., Costeira, J.M.; Oliveira, A.S.; Oliveira, D.M.S. 2012.
SAPOTECA: biblioteca de sons e vídeos de anuros amazônicos. CENBAM, Manaus, Amazonas, Brasil.
Rhinella major
5. Colaboração e fusão
●
●
Propriedade colaborativa
da rede
Fusão: média,
votação, etc.
NAKAMURA, E. F. ; LOUREIRO, A. A. F. ; FRERY, A. C. . Information Fusion for Wireless Sensor Networks: Methods, Models, and Classifications.
ACM Computing Surveys, v. 39, p. 9/1-9/55, 2007.
6. Trabalhos relacionados
Err=
ErrP +β∗ErrS
1+β
Vantagem: imunidade aos ruídos, classificador simples
Desvantagem: clusttering (sincronização, escolha de k, descartar clustter),
gerar combinações de saída.
RIBAS, A. D. ; COLONNA, J. G. ; FIGUEIREDO, C. M. S. ; NAKAMURA, E. F. . Similarity Clustering for Data Fusion in Wireless Sensor Networks Using k-Means. In: International
Joint Conference on Neural Networks, 2012, Brisbane. Proceedings of the 2012 International Joint Conference on Neural Networks (IJCNN 2012), 2012. p. 488-494.
8. Objetivo e Hipóteses
Objetivo: Elaborar um método de fusão e rejeição que melhore
a acurácia de classificação em cenários distribuídos
●
●
H1: A técnica de rejeição diminui os erros de
classificação.
H2: Usar um comitê de sensores é melhor que usar
somente um sensor.
9. Método
Método:
1. Cada sensor detecta e classifica;
2. Os vetores de probabilidades a posteriori são transmitidos ao líder;
3. O líder aplica uma votação;
4. Calcula-se a entropia do vetor de probabilidades a posteriori;
5. Aplica-se uma regra de decisão.
10. Classificadores
1.
2.
3.
4.
kNN (k=3) (98.2%)
Árvore (94.6%)
Naive Bayes (93.6%)
Discriminant analysis
Distância de Mahalanobis
D(i , j)= √( x i−μ j ) S j ( x i −μ j )
T
−1
Probabilidade a posteriori
q j = p( x i∣μ j , S j ) π j
●
Se as Sj de cada grupo são iguais então
usamos funções discriminantes lineares
log (q j )=
●
Senão usamos funções discriminantes
quadráticas
log (q j )=
http://www.mathworks.com/help/stats/discriminant-analysis.html
−1 2
D +log (π j )+c 0
2 i, j
−1 2
1
D i , j +log(π j )− log∣S j∣+c 0
2
2
11. Regras de Votação
●
●
Cenário: Dado um vetor de características
desconhecido x, cada classificador produz as
probabilidades a posteriori para as M classes,
sendo Pj(wi|x), i=1...M e j=1...L
Objetivo: Combinar as probabilidades a
posteriori para melhorar a probabilidade final
P(wi|x)
{
L
+1 par
2
lc=
L+1
impar
2
●
Voto majoritário
●
Voto majoritário ponderado (power): Pw=
1
N
∑ x2
L
●
Regra geométrica:
max w ∏ P j (w i∣x)
i
j=1
L
●
Regra aritmética:
1
P(w i∣x)= ∑ P j (w i∣x)
L j =1
Theodoridis, S. and Koutroumbas, K. Pattern Recognition, 4th.
Comitê de sensores == Conjunto de Classificadores
12. Método de Rejeição
h=−p i ∑ pi
Exemplo:
[0 0 . . . 1 . . 0 0]
Entropia: -0*log2(0) . . . -1*log2(1) = 0
[0 0,25 . . . 0,75 . . 0 0]
Entropia: -0,25*log2(0,25) - 0,75*log2(0,75) = -0,8
[0 0,5 . . . 0,5 . . 0 0]
Entropia: -0,5*log2(0,5) – 0,5*log2(0,5) = -1 (rejeitar)
Nota: O método de rejeição permite transformar o
problema de classificação em um problema bi-classe.
13. Experimentos
✔
✔
✔
✔
✔
✔
Um clustter de 4 sensores formando um grid
perturbado separados 5[m] + N~(0,0.1),
Tamanho da área 10x10 [mts],
9 Espécies diferentes,
Ruído aditivo gaussiano N~(0,0.1),
Modelo de atenuação equ.(1)
com alfa = 0.10 dB/m,
Modelo de combinação
linear de sílabas equ.(2)
Equação 1
atte=
S new =α1∗S1 +α 2 S 2
1
10
α
Equação 2
di
20
α= Absorção Atmosférica(dB /m)
d i =distância (m)
http://www.csgnetwork.com/atmossndabsorbcalc.html
S1 =sílaba da espécie 1
S 2 =sílaba da espécie 2
14. Resultados para um sensor
Erro da espécie 1 antes de rejeitar = 0,52
Erro da espécie 2 antes de rejeitar = 0,68
Erro da espécie 1 após rejeitar = 0,37
AUC_sensor1_discriminant = 0.5566
AUC_sensor1_naive = 0.5395
15. Resultados para um sensor
Matriz de confusão da entropia
limiar = 0,1
Erro = 0.43
Precisão = TP / (TP+FP) = 0.55
Revocação = TP / (TP+FN) = 0.7
F1 = 0.6
Kappa = 0.23
Matriz de confusão da entropia
limiar = 0,2
Erro = 0.45
Precisão = TP / (TP+FP) = 0.55
Revocação = TP / (TP+FN) = 0.55
F1 = 0.55
Kappa = 0.1
previsão
Conf
10677
TP
4397
FN
Não
Conf
8730
FP
6196
TN
Conf
Não
Conf
Conf
8412
TP
6662
FN
Não
Conf
6860
FP
8066
TN
Não
Conf
Conf
previsão
*Nota: objetivo futuro penaliza FN → 0
20. ROC – Método discriminante
AUC: é uma medida de quão bem o limiar de entropia pode detectar um cenário confuso.
AUC_sensor1_discriminant = 0.5566
AUC_geometric_discriminant = 0.5884
http://www.medcalc.org/manual/roc-curves.php
AUC_sensor1_naive = 0.5395
AUC_majority_weighted_naive = 0.5742
21. Conclusões
●
●
●
O método de classificação de Naive Bayes produz resultados que
variam proporcionalmente ao limiar da entropia (correlação +) com
custo de classificação menor;
O ganho na taxa de acerto ao usar votação comparada com
somente um sensor foi no máximo 5%, sendo pouco significante;
Os ganho produzidos deveram-se mais ao efeito da rejeição do que
à votação;
●
Futuramente usar uma matriz de custos para reduzir os FN.
●
Futuramente aplicar Stqacking
22. Stacking
Time taken to build model: 6.48 seconds
=== Stratified cross-validation ===
=== Summary ===
Correctly Classified Instances
29407
98.0233 %
Incorrectly Classified Instances
593
1.9767 %
Kappa statistic
0.9605
Mean absolute error
0.0464
Root mean squared error
0.1401
Relative absolute error
9.2837 %
Root relative squared error
28.0186 %
Coverage of cases (0.95 level)
99.6367 %
Mean rel. region size (0.95 level)
59.8617 %
Total Number of Instances
30000
=== Detailed Accuracy By Class ===
TP Rate FP Rate Precision Recall F-Measure MCC
ROC Area PRC Area
Class
0.967 0.007 0.993
0.967 0.980
0.961 0.996 0.995 1
0.993 0.033 0.968
0.993 0.980
0.961 0.996 0.993 0
Weighted Avg. 0.980 0.020 0.981
0.980 0.980
0.961 0.996 0.994
=== Confusion Matrix ===
a b <-- classified as
14579 495 | a = 1
98 14828 | b = 0