Abstract:
RESUMEN:
Se simula un auto-codificador neuro-biol´ogico artificial que presenta una arquitectura de
conexiones neuronales como un diagrama en una sola capa artificial. Tiene una arquitectura de
conexiones neuronales de una sola capa. En ´el la neurona biol´ogica individual se modela utilizando un conjunto de ecuaciones diferenciales basadas en un modelo para neuronas biol´ogicas
y la salida de la red se calcula acoplando la totalidad del conjunto de ecuaciones diferenciales
de todas las neuronas, utiliza la funci´on de activaci´on sigmoide.
El auto-codificador neuro-biol´ogico y su versi´on artificial fueron utilizados para reconocer
un conjunto de im´agenes que corresponden a d´ıgitos escritos a mano. En el biol´ogico, la capa de
entrada es codificada utilizando una corriente externa y en la capa de salida donde se codifica, se
toma la amplitud del potencial de acci´on de cada neurona como el color de cada pixel de la imagen. (im´agenes de 28x28 pixeles que corresponde a una capa de 784 neuronas). sin considerar el
comportamiento en la banda del tiempo del potencial de acci´on. S´olo considerando la amplitud
de la codificaci´on puede reconocer los d´ıgitos escritos a mano tan bien como el sistema artificial.
El desarrollo de Redes Neuronales Artificiales modelo (ANN) se bas´o originalmente en
Redes Neuronales Biol´ogicas (BNN), Sin embargo, con el desarrollo de la Inform´atica, los fundamentos matem´aticos de las ANN han optimizado para el reconocimiento de patrones, datos,
clasificaci´on y regresi´on y as´ı no mantener una conexi´on fuerte con sus hom´ologos biol´ogicos.En
estudios recientes se ha propuesto el uso de nuevos tipos de modelos ANN con bases en el
modelo BNN como en las multicapas perceptron y redes neuronales profundas (DNN).
Existen las nuevas redes propuestas como Spiking Neural Networks (SNN) y Spiking Neural P (SNP) Systems, que se han utilizado en varias aplicaciones tales como clasificaci´on de
datos, aplicaciones de visi´on, entre otras. Estas redes neuronales Spiking y systems se basan en
la versi´on simplificada de la red biol´ogica donde el potencial de acci´on tiene m´aximos estrechos.
La mayor´ıa de ´estos sistemas se almacena y se procesa en base a la distribuci´on del tiempo en
lugar de las entradas comunes del modelo ANN. Debido a que el tiempo de codificaci´on tiene
una mayor similitud al comportamiento observado en las neuronas naturales.
Los SNN y SNP tienen la ventaja de reducir la cantidad de procesamiento de unidades
mediante el procesamiento en serie de la informaci´on, mientras que la mayor´ıa de los tradicionales como las neuronas de ANN se ubican en capas que realizan operaciones paralelas. Podemos
deducir que el modelo DNN ha mostrado un un ´exito notable cuando se aplica al procesamiento
iii
Desarrollo de un modelo de Red Neuronal Biof´ısica Visual
y reconocimiento de im´agenes.
En particular, el model DNN ha mostrado un ´exito notable cuando se aplica al procesamiento y reconocimiento de im´agenes, tambi´en trabajos recientes han revelado que existe una
relaci´on intr´ınseca entre el modelo DNN y la arquitectura y forma en que el cerebro organiza
la informaci´on, ya que se demuestra que el DNN captur´o las etapas del procesamiento visual
humano entre tiempo y espacio desde las primeras ´areas visuales hacia las corrientes dorsal y
ventral esto debido a su similitud con la corteza visual humana y la capacidad de aprendizaje.
Por lo tanto, se justifican las ventajas en las arquitecturas del modelo ANN tradicional y las
posibilidades de procesado, y a la vez puede aplicarse a la arquitectura BNN.
Uno de los bloques de construcci´on m´as comunes en el modelo DNN, son los autocodificadores (AE), modelo que se define como una red neuronal no supervisada que aprende
las caracter´ısticas de los datos de entrada minimizando los errores de reconstrucci´on de la salida con respecto a la entrada. El modelo AE extrae las caracter´ısticas a trav´es de un mapeo
deterministico no lineal, es robusto a los ruidos de las representaciones de la imagen de datos
basadas en la eliminaci´on de ruido, ha mostrado buen rendimiento en muchas tareas por mencionar: reconocimiento de objetos, reconocimiento de d´ıgitos entre otros. La elecci´on de una
arquitectura AE para el BNN propuesto es por el hecho de que la AE no conf´ıa en el uso de
conceptos abstractos como las etiquetas las cuales que no tienen un equivalente en el modelo
BNN.
Los modelos BNN podr´ıan desarrollarse utilizando tres elementos b´asicos, el modelo de
la neurona, el modelo de la sinapsis de las conexiones neuronales y el modelo de la arquitectura
de las conexiones neuronales. Existen varios modelos de neuronas que se aplican actualmente al desarrollo de BNN como el conocido modelo Hopping Huxely y, el modelo Fitzu-Naguno
En el presente trabajo se modelan las neuronas utilizando el modelo propuesto por Marco Arieli.
ABSTRACT:
It simulates an artificial neuro-biological auto-coder that presents an architecture of neural connections as a diagram in a single artificial layer. It has an architecture of single-layer
neuronal connections. In it the individual biological neuron is modeled using a set of differential
equations based on a model for biological neurons and the output of the network is calculated
by coupling the entire set of differential equations of all neurons, using the sigmoid activation
function.
The neuro-biological auto-encoder and its artificial version were used to recognize a set
of images that correspond to handwritten digits. In the biological, the input layer is encoded
using an external current and in the output layer where it is encoded, the amplitude of the
action potential of each neuron is taken as the color of each pixel of the image. (images of 28x28
pixels corresponding to a layer of 784 neurons). without considering the behavior in the time
band of the action potential. Only by considering the breadth of coding can you recognize the
handwritten digits as well as the artificial system.
The development of Artificial Neural Networks model (ANN) was originally based on
Neural Biological Networks (BNN), However, with the development of Computer Science, the
mathematical foundations of ANN have been optimized for the recognition of patterns, data,
classification and regression and thus not maintaining a strong connection with their biological
counterparts. Recent studies have proposed the use of new types of ANN models based on the
BNN model, such as the perceptron multilayers and deep neural networks (DNN).
There are new proposed networks such as Spiking Neural Networks (SNN) and Spiking
Neural P (SNP) Systems, which have been used in several applications such as data classification, vision applications, among others. These neural networks Spiking and systems are based
on the simplified version of the biological network where the action potential has narrow maximums. Most of these systems are stored and processed based on the distribution of time instead
of the common entries of the ANN model. Because the coding time has a greater similarity to
the behavior observed in natural neurons.
SNNs and SNPs have the advantage of reducing the amount of unit processing through
serial processing of information, while most traditional ones such as ANN neurons are located
in layers that perform parallel operations. We can deduce that the DNN model has shown
remarkable success when applied to image processing and recognition.
v
Desarrollo de un modelo de Red Neuronal Biof´ısica Visual
In particular, the DNN model has shown remarkable success when applied to the processing and recognition of images, and recent work has revealed that there is an intrinsic relationship between the DNN model and the architecture and way in which the brain organizes the
information, since it is shown that the DNN captured the stages of human visual processing
between time and space from the first visual areas to the dorsal and ventral currents due to its
similarity with the human visual cortex and the learning capacity. Therefore, the advantages in
the architectures of the traditional ANN model and the possibilities of processing are justified,
and at the same time can be applied to the BNN architecture.
One of the most common building blocks in the DNN model are the auto-coders (AE), a
model that is defined as an unsupervised neural network that learn the characteristics of the
input data by minimizing the errors of reconstructing the output with respect to the input. The
AE model extracts the characteristics through a non-linear deterministic mapping, is robust to
the noise of the representations of the data image based on the elimination of noise, has shown
good performance in many tasks to mention: recognition of objects, recognition of digits among
others. The choice of an AE architecture for the proposed BNN is due to the fact that the AE
does not rely on the use of abstract concepts such as labels which do not have an equivalent in
the BNN model.
BNN models could be developed using three basic elements, the neuron model, the synapse model of neuronal connections and the architecture model of neuronal connections. There are
several models of neurons that are currently applied to the development of BNN, such as the
well-known Hopping Huxely model and the Fitzu-Naguno model. In the present work, neurons
are modeled using the model proposed by Marco Arieli.
Description:
Tesis (Maestría en Ciencias en Ingeniería Electrónica), Instituto Politécnico Nacional, SEPI, ESIME, Unidad Zacatenco, 2018, 1 archivo PDF, (57 páginas). tesis.ipn.mx