Rede Perceptron de uma única camada

Este post faz parte da série Inteligência Artificial. Leia também os outros posts da série:

Dando continuidade ao assunto dos artigos anteriores sobre Redes Neurais, iremos explorar a Rede Perceptron de uma única camada. O Perceptron foi criado em 1958 por Rosenblatt, sendo a forma mais simples da configuração de uma rede neural artificial, uma vez que é constituída de uma única camada neural e de um único neurônio. A figura 1 ilustra a rede Perceptron de única camada, onde podemos ter N entradas, mas apenas uma única saída com um valor de 0 e 1 ou de -1 e 1.

Rede Perceptron de uma única camada.
Figura 1 - Rede Perceptron de uma única camada.

O Perceptron de uma única camada é utilizado para dividir duas classes linearmente separáveis (figura 2), apresentando erro para classes não linearmente separáveis (figura 3), onde se recomenda usar a rede Perceptron Multicamadas, que falaremos a respeito posteriormente. Devemos recordar que para cada entrada adicionada à fronteira de separação será representada por um plano ou hiperplanos.

Sistema linearmente separável
Figura 2 - Sistema linearmente separável
Sistema não linearmente separável
Figura 3 - Sistema não linearmente separável

O funcionamento da rede Perceptron é muito simples, as entradas (Xi) representam as informações do processo que desejamos mapear, sendo que cada uma das entradas terá um peso sináptico ponderado (Wi) que representa a importância de cada entrada em relação ao valor de saída desejado (y). O resultado da somatória das entradas ponderadas será somado ao limiar de ativação (θ) e então repassado como argumento da função de ativação g(.), a qual terá como resultado a saída desejada. Normalmente a função de ativação costuma ser do tipo função degrau ou degrau bipolar. Representando matematicamente teremos:

Perceptron-formula1

Onde:

Perceptron-formula2

Simbologia:

  • Xi - Entradas - Valor real ou binário
  • Wi - Pesos Sinápticos - Valor Real aleatório
  • θ - Limiar de Ativação - Valor Real aleatório
  • y - Saída - Valor Binário
  • g(.) - Função de Ativação - Degrau ou Degrau Bipolar

Os pesos sinápticos, assim como o limiar do Perceptron, serão corrigidos através do processo de treinamento supervisionado por meio da regra de aprendizado de Hebb, para cada amostra dos sinais de entrada.  Se a saída produzida coincidir com a saída desejada, os pesos sinápticos e os limiares serão incrementados proporcionalmente aos valores de seus sinais de entrada. Do contrário, caso a saída seja diferente, seus valores serão decrementados. Este processo irá se repetir sequencialmente para todas as amostras de treinamento, até que a saída final seja similar à desejada, conforme as equações a seguir:

Perceptron-formula3

e

Perceptron-formula4

Onde:

  • η  representa a taxa de aprendizado ou a velocidade com que o processo de treinamento converge rumo à estabilidade, sendo que o valor de η deverá estar compreendido entre 0 < η < 1; 
  • K representa a k-ésima amostra.

Já a saída do Perceptron assumirá dois valores possíveis. Supondo que desejemos trabalhar com a função sinal, teríamos:

Perceptron-formula5

ou

Perceptron-formula6

Vídeo demostrativo e código

A seguir é apresentado um vídeo demonstrativo do Perceptron:

Você pode baixar o código de treinamento aqui.

Referências

http://sergiopalmiere.livejournal.com/

Outros artigos da série

<< Arquiteturas e Topologias de Redes Neurais Artificiais
Licença Creative Commons Esta obra está licenciada com uma Licença Creative Commons Atribuição-CompartilhaIgual 4.0 Internacional.

Receba os melhores conteúdos sobre sistemas eletrônicos embarcados, dicas, tutoriais e promoções.

Software » Rede Perceptron de uma única camada
Comentários:
Notificações
Notificar
guest
16 Comentários
recentes
antigos mais votados
Inline Feedbacks
View all comments
Janison R. de Carvalho
Janison R. de Carvalho
01/10/2019 14:46

Este código está incorreto.

Eder
Eder
31/03/2019 10:04

Se alguém conseguir resolver esse exercício, favor entra em contato pelo e-mail [email protected] ou pelo zap 34999747336.

exercício
Deseja-se realizar o treinamento de uma Rede Perceptron de neurônio e camada única, para realizar as operações análogas (iguais) a uma porta AND, determine os valores dos pesos neurais wb, w1 e w2, ao termino do treinamento, sabendo que a taxa de aprendizagem é 0.6, pesos neurais iniciais são iguais à zero, bias igual a -1 e função de ativação degrau ( 0, net>=0 e 1,net<0 ). (Observação net : saída da somatória do produto do neurônio).

Eder
Eder
31/03/2019 09:43

bom dia
Preciso de alguém que resolva um exercício. tem algum contato?

Eder
Eder
Reply to  Eder
31/03/2019 09:59

Segue o referido exercício.
Deseja-se realizar o treinamento de uma Rede Perceptron de neurônio e camada única, para realizar as operações análogas (iguais) a uma porta AND, determine os valores dos pesos neurais wb, w1 e w2, ao termino do treinamento, sabendo que a taxa de aprendizagem é 0.6, pesos neurais iniciais são iguais à zero, bias igual a -1 e função de ativação degrau ( 0, net>=0 e 1,net<0 ). (Observação net : saída da somatória do produto do neurônio).

Martin Schultz
15/12/2018 08:18

Porque não consigo baixar o código do matlab? Diz que não tenho permissão.

Fábio Souza
Reply to  Martin Schultz
20/12/2018 12:37

Olá Martin. Por favor, tente novamente.

Martin Schultz
Reply to  Fábio Souza
28/12/2018 09:02

Deu certo amigo, vlwww

Fábio Souza
Fábio Souza
Reply to  Martin Schultz
28/12/2018 12:12

show. Fico à disposição.

Herson Rocha
30/11/2018 18:24

Prezados, estou tentando baixar o vídeo mas diz que não tenho permissão. Por gentileza, poderia enviar para [email protected]? Abraços.

Fábio Souza
Reply to  Herson Rocha
20/12/2018 12:37

Olá Herson. Por favor, tente novamente.

Nadiel Tiago
05/10/2018 16:40

Acontece o mesmo comigo, ao tentar baixar diz que não tenho permissão.

Fábio Souza
Reply to  Nadiel Tiago
20/12/2018 12:37

Olá Nadiel. Por favor, tente novamente.

Dig Freitas
30/09/2018 21:44

Gostaria de baixar o arquivo, mas diz que não tenho permissão. Podes ajudar, por favor.
[email protected]

Fábio Souza
Reply to  dig freitas
20/12/2018 12:38

Por favor, tente novamente.

Matheus Jose
07/07/2018 09:19

Muito grato pelo video tutorial. Estou aprendendo sobre o próprio assunto, pois futuramente terei aulas com o professor Ivan

att, jose matheus, estudante de engenharia elétrica da USP

Talvez você goste:

Séries



Outros da Série

Menu

WEBINAR
 
NVIDIA JETSON – A Inteligência Artificial na palma de sua mão

Data: 08/07 às 14:00h Apoio: Arrow | NVIDIA
 
INSCREVA-SE AGORA »



 
close-link

WEBINAR
 
Redes Mesh para Monitoramento
e Controle de Sensores

Data: 15/07 às 14:00h Apoio: Artimar| Microchip| Tecsus
 
INSCREVA-SE AGORA »



 
close-link