14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
Exercícios: Redes Neurais Artificiais Questões para pesquisa: 1. (1,0) Classifique a lista de itens abaixo como verdadeiro (V) ou falso (F) e justifique sua resposta: a. Nós usamos apenas 10% do potencial do nosso cérebro.
Resposta b. O número de neurônios que temos ao nascermos é o mesmo do número de neurônios ao morrermos.
Resposta c. Os neurônios não se reproduzem.
Resposta d. Os homens têm mais neurônios que as mulheres.
Resposta e. As mulheres possuem uma visão periférica mais ampla que os homens.
Resposta
Questões teóricas: 1. (1,5) Dado o neurônio de McCulloch & Pitts abaixo, determine valores para seus pesos, w1 e w2, e para o limiar limiar , tal que ele ele reproduza as portas porta s lógicas AND, AND, OR e NOT NOT..
Resposta AND w1 = 1, w 2 = 1, θ = 2 f (u) = 1 para u ≥ 2 f (u) = 0 para u < 2
natcomp.com.br/…/exercicio_id2.jsp
OR w 1 = 1, w2 = 1, θ = 1 f (u) = 1 para u ≥ 1 f (u) = 0 para u < 1
NOT w 1 = -1, w2 = 0, θ = 0 f (u) = 1 para u ≥ 0 f (u) = 0 para u < 0
1/6
14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
2. (1,0) O neurônio de McCulloch & Pitts pode ser implementado de forma a simular uma porta lógica AND e uma porta OR. Dado o neurônio NOT abaixo, conecte alguns neurônios AND, OR e NOT tal que a rede resultante opere como uma porta XOR.
Resposta
3. (1,0) Seja um neurônio genérico sem o bias e co m função de ativaç ão do tipo linear,
(u) = u. A regra de atualização deste neurônio é do tipo supervisionada e, portanto, leva em consideração o erro entre a saída da rede e a saída desejada. A Eq. (1) apresenta a regra de atualização dos pesos em função do gradiente do erro instantâneo.
onde, w é o vetor de pesos do neurônio, é a taxa de aprendizagem, e / w é vetor gradiente do erro em relação ao vetor de pesos do neurônio. O erro instantâneo do neurônio é dado pela Eq. (2) abaixo:
onde e(t) é o sinal de erro medido na iteração t. Mostre que a regra resultante de atualização de pesos do neurônio é dada pela Eq. (3).
Resposta e(t ) = d (t ) - y(t ) e(t ) = d (t ) - xT (t )w(t )
w(t + 1) = w(t ) + a e(t )x(t )
4. (1,5) Para a rede competitiva treinada abaixo calcule o neurônio vencedor para cada padrão de entrada dado. Onde: m é o número de entradas da rede, o o número de saídas e N o número de amostras (padrões) de treinamento.
natcomp.com.br/…/exercicio_id2.jsp
2/6
14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
Rede competitiva; matriz de pesos W; matriz de dados de entrada X.
Neurônio vencedor: 1, onde 1 = arg min i ||x - wi||, i. Métrica de distância: ||x - wi|| =
(Distância Euclidiana)
Resposta
Padrão de Entrada x1
Neurônio Vencedor: w1
Padrão de Entrada x2
Neurônio Vencedor: w2 5. (2,0) Dada a rede do tipo perceptron simples (SLP) abaixo, calcule a saída da rede, o erro entre a saída desejada e a saída da rede, e o ajuste a ser promovido nos pesos da rede na primeira época (iteração) de treinamento. Regras de ajuste de pesos (aprendizagem): ei (t) = di (t) - yi (t), w
(t +1) = w (t ) +
b(t +1) = b(t ) +
ei 2
x
i,
e i 2.
natcomp.com.br/…/exercicio_id2.jsp
3/6
14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
Resposta Apresentação do primeiro padrão de entrada:
Saída da rede
Cálculo do erro
Ajuste dos Pesos
Ajuste dos Bias
natcomp.com.br/…/exercicio_id2.jsp
4/6
14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
Apresentação do segundo padrão de entrada:
Saída da rede
Cálculo do erro
Ajuste dos Pesos
Ajuste dos Bias
6. (2,0) Para o perceptron de múltiplas camadas (MLP) mostrado na figura abaixo, calcule a saída da rede assumindo neurônios lineares em todas as camadas da rede e proponha uma rede com uma única camada (SLP) equivalente a esta rede MLP. Padrão de entrada: x1 = x2 = 1.
natcomp.com.br/…/exercicio_id2.jsp
5/6
14/12/2010
.:LVCoN:. Laboratório Virtual em Comp…
Resposta 3
Saídas da rede: y = W .(W2.(W1.x + b 1 ) + b2 ) + b 3 ) = [0.5 0.73]T S Rede equivalente: (possíveis respostas)
a-)
natcomp.com.br/…/exercicio_id2.jsp
b-)
6/6