Arquiteturas e Topologias de Redes Neurais Artificiais

Confira mais um artigo de inteligência artificial, sobre arquiteturas e topologias de Redes Neurais Artificiais. Veja também as formas de treinamento da RNA.
Redes Neurais Artificiais
Este post faz parte da série Inteligência Artificial. Leia também os outros posts da série:

Continuando nossa série de artigos sobre inteligência artificial com foco em Redes Neurais Artificiais, abordaremos agora as diferentes arquiteturas e topologias de Redes Neurais Artificiais existentes, assim como as  suas formas de treinamento. Quando nos referimos à arquitetura de uma rede neural estamos nos referindo sobre a disposição dos neurônios, um em relação ao outro, seguindo as conexões sinápticas comentadas no artigo anterior. Já a topologia da rede se refere às diferentes composições estruturais possíveis com diferentes quantidades de neurônios nas camadas de entrada, intermediária e de saída da rede.

A camada de entrada é responsável pelo recebimento dos dados/sinais/amostras a serem analisados, assim como a correspondente associação com os pesos de entrada. A camada intermediária ou escondida tem por finalidade extrair as informações associadas ao sistema inferido, sendo também responsável pela maior parte do processamento destes dados. Já a camada de saída agrega os dados das camadas anteriores e ativa uma resposta adequada.

As arquiteturas mais usuais das RNA’s são:

FeedForward de Camada Simples: Uma camada de entrada diretamente associada a um ou mais neurônios que vão gerar a resposta de saída (figura 1). Observe que o fluxo de dados segue sempre em direção à camada de saída. São empregadas em problemas de classificação de padrões e filtragem. Tipos: Perceptron e Adaline.

Arquiteturas e Topologias de Redes Neurais Artificiais - Arquitetura FeedForward de Camada Simples
Figura 1: Arquitetura FeedForward de Camada Simples

FeedForward de Camadas Múltiplas: Constituída por uma ou mais camadas escondidas de neurônios (figura 2). São empregadas em problemas de aproximação de funções, classificação de padrões, identificação de sistemas, otimização, robótica e controle de processos. Tipos: Perceptron Multicamadas, Redes de Base Radial.

Arquitetura FeedForward de Camadas Múltiplas
Figura 2: Arquitetura FeedForward de Camadas Múltiplas

Recorrente ou Realimentada: Suas saídas são realimentadas como sinais de entrada para outros neurônios, sendo assim empregadas para o processamento de sistemas variantes no tempo (figura 3). São empregadas em previsões de séries temporais, otimização, identificação de sistemas e controle de processos. Tipos: Hopfield e Perceptron Multicamadas com Realimentação.

Arquitetura Recorrente ou Realimentada
Figura 3: Arquitetura Recorrente ou Realimentada

Estrutura Reticulada: Consideram a disposição espacial dos neurônios (figura 4) com o propósito da extração de características do sistema, ou seja, sua localização espacial serve para ajuste de seus pesos e limiares. São empregadas em problemas de agrupamento, reconhecimento de padrões, otimização de sistemas, etc. Tipo: Kohonen.

Figura 4: Arquitetura de Estrutura Reticulada
Figura 4: Arquitetura de Estrutura Reticulada

Treinamento da Redes Neurais Artificiais

Para que uma RNA atenda nossos objetivos ela deverá ser treinada. O termo treinamento de uma rede neural consiste basicamente em fazê-la adotar valores de pesos e limiares baseados em suas amostras de entrada, de modo que qualquer outra amostra futura apresentada a ela seja corretamente classificada. Isto é, apresentaremos nossas amostras/dados na entrada da rede e direcionaremos uma resposta desejada fazendo com que a rede seja obrigada a modificar seus pesos e limiares. Assim qualquer outro valor apresentado a ela depois que a rede estiver corretamente treinada produzirá uma saída ou resultado igual ou próximo do desejado.

Normalmente para treinarmos uma RNA e verificarmos se os pesos estão adequados teremos que dividir as amostras existentes entre treinamento e validação da rede. Sugere-se que a divisão seja 60% a 90% amostras para treinamento e 40% a 10% para testes. Denomina-se época de treinamento a cada vez que apresentarmos uma amostra para ajuste dos pesos sinápticos e limiares da rede. Quanto os tipos de treinamento estes podem ser:

Supervisionado: Deve-se dispor das amostras e das respectivas saídas desejadas para que os pesos e limiares sejam ajustados continuamente pelo algoritmo de aprendizagem.

Não Supervisionado: A saída deve se auto organizar em relação às particularidades do conjunto de amostras e assim identificar subconjuntos similares. Seus pesos e limiares são ajustados pelo algoritmo de aprendizagem de modo a refletir estas particularidades.

Com Reforço: Similar ao treinamento supervisionado, contudo seu algoritmo visa ajustar os pesos e limiares baseando-se em informações procedentes da interação com o sistema mapeado, visando reforçar as respostas satisfatórias.

Lote de Padrões (Off-Line): Apresenta-se primeiramente todo o conjunto de amostras para então se ajustar os pesos e limiares da rede.

Padrão por Padrão (On-Line): Os pesos e limiares são ajustados após a apresentação de cada amostra permitindo que a mesma seja descartada posteriormente. Este tipo de treinamento é empregado quando o sistema a ser mapeado sofre variações ao longo do tempo. Observe que devido às características do sistema variante, este tipo de treinamento somente fornecerá respostas precisas após a apresentação de um número significativo de amostras.

No próximo artigo iremos analisar e explorar as características de uma rede perceptron simples.

Referências

[1] Silva, Ivan N.; Spatti, Danilo H.; Flauzino, Rogério A; Redes Neurais Artificiais para engenharia e ciências aplicadas, Artliber, 2010.

[2] Tutorial sobre Redes Neurais

Outros artigos da série

<< Introdução a Redes Neurais ArtificiaisRede Perceptron de uma única camada >>

Engenheiro elétrico formado pela UMC, pos graduado em Automação Industrial pelo Senai Armando Arruda Pereira e Engenharia de Segurança do Trabalho pela UNINOVE. Mestre em Energia pela UFABC e atualmente Doutorando pela UFABC. Trabalhei durante anos na indústria automobilística e mais recentemente como professor/instrutor para cursos de NR10 básica e complementar, eletrônica digital e analógica, microcontroladores (PIC) e eletricidade. Minhas áreas de pesquisa são Eficiência Energética, Green Buildings, Sistemas Embarcados, Segurança contra Incêndios, Robótica e Energia Livre.

Atualmente procurando recolocação profissional.

Notificações
Notificar
guest
2 Comentários
recentes
antigos mais votados
Inline Feedbacks
View all comments
Leonardo Godói
Leonardo Godói
06/11/2018 14:39

Muito boa esse série de artigos! Parabéns!

Elaine Cecília Gatto
Membro
20/04/2018 17:13

Amei o artigo e olha que também sou articulista aqui no Embarcados. Estou estudando o assunto para o meu Doutorado e o seu artigo veio muito a calhar. Se cair na prova quais as diferenças entre os tipos de arquiteturas de RNAs eu já sei responder ahahhahahaha. Thanks.

WEBINAR

Imagens de Ultrassom: Princípios e Aplicações

DATA: 26/10 ÀS 19:30 H