Informática


Redes Neuronales


TEORÍA GENERAL DE SISTEMAS:

REDES NEURONALES

EL NEOCOGNITRÓN

ÍNDICE

  • ARQUITECTURA Pág. 3

  • DESCRIPCIÓN FUNCIONAL Pág. 3

  • PROCESAMIENTO DE DATOS. Pág. 8

  • PROCESAMIENTO DE LA CAPA S Pág. 8

  • ENTRENAMIENTO DE PESOS DE LAS CAPAS S Pág. 12

  • APRENDIZAJE SIN SUPERVISIÓN Pág. 12

  • OTROS MÉTODOS DE APRENDIZAJE Pág. 13

  • PROCESAMIENTO DE LA CAPA C Pág. 14

  • RENDIMIENTO DEL NEOCOGNITRÓN Pág. 15

  • ADICIÓN DE INHIBICIÓN LATERAL Y DE

  • REALIMENTACIÓN AL NEOCOGNITRÓN Pág. 17

  • BIBLIOGRAFÍA Pág. 18

  • 1. ARQUITECTURA

    El Neocognitrón fue creado en un principio para el reconocimiento de caracteres escritos a mano, basado en el estudio de la corteza visual del ojo humano.

    El diseño del Neocognitrón adopta esta estructura jerárquica en una arquitectura por capas:

    Redes Neuronales

    (Figura 1)

    En esta figura se muestra la estructura jerárquica del Neocognitrón. Cada caja representa un nivel del Neocognitrón formado por una capa de células simples USi, y una capa de células complejas, en donde i es el número de capa. U0 representa señales que se originan en la retina. También existe una sugerencia de correspondencia en la estructura jerárquica del cerebro. La red termina con células individuales que corresponden a estímulos visuales complejos. Esas células finales suelen denominarse células abuelas, en la idea de que quizá haya en nuestros cerebros cierta célula que responde a estímulos visuales complejos, tales como una imagen de nuestra abuela.

    El diseño del Neocognitrón evolucionó a partir de un modelo anterior llamado cognitrón, y existen varias versiones del Neocognitrón en sí. La que se va a describir tiene nuevas capas de PE (Elementos de proceso), incluyendo la capa de la retina. El sistema ha sido diseñado para reconocer los números del 0 al 9, independientemente del lugar en que se encuentren dentro del campo de visión de la retina. Además, la red tiene un alto grado de tolerancia frente a distorsiones del carácter, y es relativamente insensible al tamaño del carácter. Esta primera arquitectura contiene únicamente conexiones hacia delante, aunque existen redes realimentadas.

  • Descripción funcional

  • Los PE del Neocognitrón están organizados en módulos llamados niveles. En la figura 2 se muestra un único nivel. Cada nivel consta de dos capas: una capa de células sencillas, o células S, seguida por una capa de células complejas, o células C. Cada capa, a su vez, está dividida en un cierto número de planos, cada uno de los cuales consta de una distribución rectangular de PE. Para un nivel dado, la capa S y la capa C pueden tener o no el mismo número de planos. Todos los planos de una capa dada tendrán el mismo número de PE; sin embargo, el número de PE de dos planos A puede ser distinto del número de PE de los planos C del mismo nivel. Además, el número de PE por plano puede variar de nivel a nivel. También hay PE denominados células VS y células VC que no se muestran en la figura. Estos elementos desempeñan un papel importante en el procesamiento, pero se puede describir la funcionalidad del sistema sin hacer referencia a ellos.

    (Figura 2)

    Se muestra un único nivel de un Neocognitrón. Cada nivel consta de dos capas y cada capa consta de un cierto número de planos. Los planos contienen los PE en una distribución rectangular. Los datos pasan de la capa S a la capa C a través de conexiones que no se muestran. En aquellos Neocognitrones que tienen realimentación, también habrá conexiones de la capa C a la capa S.

    Se construye una red compleja combinando una capa de entrada, a la cual denominaremos retina, con un cierto número de niveles de forma jerárquica, según se muestra en la figura 3 Esta figura muestra el número de planos de cada capa para la realización concreta que se va a describir.

    La estrategia de interconexión es distinta de la de aquellas redes que están totalmente interconectadas entre capas. La figura 4 muestra una representación esquemática de la forma en que están conectadas las células en el Neocognitrón. Cada capa de células sencillas actúa como un sistema de extracción de características que emplea la capa precedente como capa de entrada. En la primera capa S, las células de cada plano son sensibles a características sencillas de la retina: en este caso, a segmentos de líneas con distintos ángulos de orientación. Todas las células S de un mismo plano son sensibles a la misma característica, pero en distintas posiciones dentro de la capa de entrada. Las células S de distintos planos responden a distintas características.

    Redes Neuronales

    (Figura 3)

    Esta figura muestra la organización básica del Neocognitrón para el problema del reconocimiento de números. Hay nueve capas, cada una con un número variable de planos. El tamaño de cada capa, en términos del número de elementos de proceso, se da debajo de cada capa. Por ejemplo, la capa UC2 tiene 22 planos de 7x7 PE distribuidos en una matriz cuadrada. La capa de células C del nivel final está formada por 10 planos, cada uno de ellos posee únicamente un único elemento. Cada elemento corresponde a uno de los números del 0 al 9. La identificación de la trama que aparece en la retina se hace en función de la célula C del nivel final que tenga la respuesta más elevada.

    A medida que se examina la red con más detalle, las células S van respondiendo a características cuyos niveles de abstracción son más elevados; por ejemplo, vértices con líneas que se cortan en distintos ángulos y orientaciones. Las células C integran las respuestas de grupos de células S. Como cada célula S está buscando la misma característica en una posición diferente, la respuesta de la célula C es menos sensible a la posición exacta de la característica dentro de la capa de entrada. Este comportamiento es lo que da al Neocognitrón su capacidad para identificar caracteres independientemente de su posición exacta dentro del campo de la retina. Cuando llega el momento en que se alcanza la capa final de células C, el campo receptivo efectivo de todas las células es toda la retina. La figura 5 muestra esquemáticamente el proceso de identificación de los caracteres.

    Redes Neuronales

    (Figura 4)

    Este diagrama es una representación esquemática de la estrategia de interconexión del Neocognitrón. a) En el primer nivel, cada unidad S recibe conexiones de entrada procedentes de una pequeña región de la retina. Las unidades situadas en posiciones correspondientes de todos los planos reciben conexiones de entrada procedentes de la misma región de la retina. La región de la cual recibe entradas una célula S es lo que se define el campo receptivo de la célula. b) En niveles intermedios, cada unidad de un plano S recibe conexiones de entrada procedentes de posiciones correspondientes de todos los planos C que haya en el nivel anterior. Las células C tienen conexiones procedentes de una región de las células S del nivel S que lo precede. Si el número de planos C es el mismo que el de planos S dentro de ese nivel, entonces cada célula C tiene conexiones de células S en un único plano S. Si hay menos planos C que planos S, algunas células C pueden recibir conexiones de más de un plano S.

    Obsérvese la pequeña diferencia existente entre la primera capa S y las capas S subsiguientes, en la figura 4. Todas las células de un plano de la primera capa S reciben entradas procedentes de una sola capa, a saber, la retina. En capas subsiguientes, cada plano de células S recibe entradas de todos los planos de células C que lo precedan inmediatamente. La situación es ligeramente diferente para los planos de células C. Típicamente, cada célula de un plano de células C examina una pequeña región de células S pertenecientes a un único plano de células S. Por ejemplo, el primer plano de células C de la capa 2 tendría solamente conexiones con una región de células S del primer plano de células S de la capa anterior. Volviendo a la figura 3 se aprecia que no existe necesariamente una correspondencia uno a uno entre los planos de células C y los planos de células S en todas las capas del sistema. Esta discrepancia se produce porque los diseñadores del sistema encontraron que resultaba ventajoso combinar las entradas de algunos de los planos S en un solo plano C si las características que estaban detectando los planos S eran similares. Este proceso de ajuste resulta evidente en varias zonas de la arquitectura de la red y de las ecuaciones de procesamiento.

    Redes Neuronales

    (Figura 5)

    Esta figura ilustra la forma en que el Neocognitrón desempeña su función de reconocimiento de caracteres. El Neocognitrón descompone la trama de entrada en partes elementales formadas por segmentos de líneas con distintos ángulos de rotación. Entonces el sistema integra estos elementos en estructuras de orden superior en cada uno de los niveles sucesivos de la red. Las células de cada nivel integran las respuestas de las células del nivel anterior en una zona finita. Este comportamiento proporciona al Neocognitrón su capacidad para identificar caracteres independientemente de su posición exacta o de su tamaño dentro del campo de vista de la retina.

    A diferencia de muchas otras arquitecturas de redes (como la de propagación hacia atrás), en las cuales cada unidad tiene un vector de pesos distinto, todas las células S de un mismo plano comparten un mismo vector de pesos. Compartir pesos de esta manera significa que todas las células S de un plano dado responden exactamente a la misma característica en sus campos receptivos, tal como se había indicado. Además, sólo se necesita entrenar una célula S de cada plano, y distribuir después los pesos resultantes a las demás células.

    Los pesos de las conexiones que van a las células C no son modificables, en el sentido de que no están determinados mediante un proceso de entrenamiento. Todos los pesos de células C suelen ser determinados ajustándolos a la arquitectura específica de la red. Al igual que sucede con los planos S, todas las células de un mismo plano C comparten los mismos pesos. Además, en algunas realizaciones, todos los planos C de una cierta capa comparten los mismos pesos.

    2. PROCESAMIENTO DE DATOS

    En esta sección se describirán los distintos algoritmos de procesamiento de las células del Neocognitrón. Se examinará primero el procesamiento de las células S, incluyendo el método empleado para entrenar la red. Después se describirá el procesamiento de la capa C.

    2.1. Procesamiento de la capa S

    Nos centraremos primero en las células de un único plano US1, según se indica en la figura 6. Supondremos que la capa de retina, U0, es una matriz de 19 por 19 pixels. Por tanto, cada plano de US1 tendrá una matriz de 19 por 19 células. Cada plano barre toda la retina en busca de una cierta característica. Tal como se indica en la figura, cada célula del plano está buscando exactamente la misma característica, pero en una posición diferente de la retina. Cada célula S recibe conexiones de entrada procedentes de una matriz 3 x 3 pixels de la retina. El campo receptivo de cada una de las células S corresponde a la matriz 3 por 3 que está centrada en el pixel que corresponde a la posición de la célula dentro del plano.

    Cuando se está construyendo o simulando esta red, es preciso tener en cuenta los efectos de bordes. Si se rodea la retina con pixels inactivos (salidas que siempre están puestas a cero), entonces se pueden tener en cuenta automáticamente las células cuyos campos de vista estén centrados en pixels situados en el borde. Las células S circundantes pueden barrer la distribución que es la retina estando desplazadas un pixel unas respecto a otras. De esta manera, se barre la imagen entera de izquierda a derecha y desde arriba hasta abajo, mediante las células de cada uno de los planos S.

    La capa S tiene asociado un único plano de células VC, según se indica en la figura 6. El plano V contiene el mismo número de células que cada uno de los planos S. Las células VC tienen los mismos campos receptivos que las células S situadas en posiciones correspondientes del plano. La salida de una célula VC va a una sola célula S de todos los planos de la capa. Las células S que reciben entradas de una cierta célula VC son aquellas que ocupan una posición en el plano que corresponde a la posición de la célula VC. La salida de la célula VC tiene un efecto inhibitorio sobre las células S. La figura 7 muestra los detalles de una sola célula S junto con su correspondiente célula inhibitoria.

    (Figura 6)

    La retina, que es la capa U0, es una matriz de 19x19 pixels, rodeada por pixels inactivos para tener en cuenta los efectos de bordes que se describirán más adelante. Se muestra uno de los planos S, junto con una indicación de las regiones de la retina que son barridas por cada célula individual. Hay un plano de células VC asociado a cada capa S del sistema. Estas células reciben conexiones de entrada procedentes del mismo campo receptivo que las células S que se encuentran en posiciones correspondientes del plano.

    Redes Neuronales

    (Figura 7)

    Se muestra una única célula S y la célula inhibitoria correspondiente dentro de la capa US1. Cada una de las unidades recibe las mismas nueve entradas procedentes de la capa de la retina. Los pesos ai de la célula S determinan la característica a la cual es sensible la célula. Tanto los pesos ai que están en las conexiones procedentes de la retina como el peso b procedente de las células VC son modificables, y se determinan empleando un proceso de entrenamiento.

    Hasta el momento se ha descrito la primera capa S, en la cual las células reciben conexiones de entrada procedentes de un único plano (la retina) situado en la capa anterior. Para lo siguiente, generalizaremos para incluir el caso de capas más profundas de la red en las cuales una célula S recibirá conexiones de entrada procedentes de todos los planos de la capa C anterior.

    Sea el índice que se refiere al k-ésimo plano del nivel l. Se puede rotular cada celda de un cierto plano mediante un vector bidimensional, en donde n indica su posición dentro del plano; entonces, haremos que el vector v se refiera a la posición relativa de una célula dentro de la capa anterior que se encuentre en el campo receptivo de la unidad n. Con estas definiciones, se puede escribir la ecuación siguiente para la salida de cualquier célula S:

    (1)

    en donde la función es una función umbral lineal dada por:

    (2)

    Se ha utilizado la notación del punto para indicar la multiplicación ordinaria en la ecuación (1), con objeto de hacer más legible la expresión.

    Vamos ha diseccionar estas ecuaciones con cierto detalle. La suma interna de la ecuación (1) es el conocido cálculo de suma de productos, de las entradas, , por los pesos Redes Neuronales
    . La suma se extiende a todas las unidades de la capa C anterior que yazcan en el campo receptivo de la unidad n. Estas unidades se han indicado mediante el vector n+v. Como vamos a suponer que todos los pesos y todos los valores de salida son no negativos, el cálculo de la suma de productos produce una medida del grado de coincidencia de la trama de entrada y el valor de pesos de una cierta unidad. Se denota el campo receptivo mediante Al, indicando que la geometría del campo receptivo es la misma para todas las unidades de una cierta capa. La suma exterior de la ecuación (1) se extiende a los Kl-1 planos de la capa C precedente. En el caso de USl, no habría necesidad de hacer esta suma exterior.

    El producto , que se encuentra en el denominador de la ecuación (1), representa la contribución inhibitoria de la célula VC. El parámetro rl, en donde , determina la selectividad de la célula con respecto a una trama específica. El factor va desde cero hasta 1 a medida que rl va desde cero hasta infinito. Por tanto, para valores pequeños de rl, el denominador de la ecuación (1) podría ser relativamente pequeño en comparación con el numerador, aun en el caso de que la trama de entrada no coincidiese exactamente con el vector de pesos. Esta situación podría dar lugar a un argumento positivo para la función . Si rl fuera grande, entonces la coincidencia entre la trama de entrada y los pesos del numerador de la ecuación (1) tendría que ser más exacta para superar los efectos inhibitorios de la entrada de la célula VC. Obsérvese también que este parámetro rl aparece como factor multiplicativo de la función . Si rl es pequeño, y la selectividad de la célula es pequeña, este factor asegura que la salida de la célula en sí no pueda hacerse demasiado grande.

    Se puede visualizar la misión de r1 de otra manera. Se rescribe el argumento de la función que aparece en la ecuación (1) en la forma

    en donde e es el término excitatorio neto y h es el término inhibitorio neto. De acuerdo con la ecuación (2), la salida de la célula S será no nula sólo en el caso de que

    o bien

    Por tanto la magnitud r1 determina la intensidad de excitación relativa mínima frente a la inhibición que dará lugar a una salida no nula de la unidad. A medida que aumenta r1, . Por tanto un valor mayor de r1 requiere una excitación más grande en relación con la inhibición para obtener una salida no nula.

    Obsérvese que ninguna de las expresiones de los pesos ni depende explícitamente de la posición n de la célula. Recuérdese que las células de un plano comparten los mismos pesos, incluso los pesos .

    Ahora es preciso especificar la salida de los nodos inhibitorios. La célula VC que está en la posición n tiene el siguiente valor en su salida:

    (3)

    en donde es el peso de la conexión que procede de una célula situada en la posición v del campo receptivo de la célula VC. Estos pesos no son sometidos a entrenamiento. Pueden adoptar la forma de cualquier función normalizada que decrezca monótonamente a medida que aumenta la magnitud de v.

    La forma particular de la ecuación (3) es una raíz cuadrática media ponderada de las entradas de la célula VC. Volviendo a la ecuación (1), se puede apreciar que en las células S, la entrada excitatoria neta que llega a la célula se está comparando con una medida de la señal de entrada media. Si la razón de la entrada excitatoria neta a la entrada inhibitoria neta es mayor que 1, la célula tendrá una salida positiva.

    2.2. Entrenamiento de pesos de las capas S

    Hay varios métodos diferentes para entrenar los pesos del Neocognitrón. El método que se detallará es un algoritmo de aprendizaje sin supervisión diseñado por los creadores del Neocognitrón original.

    2.2.1. Aprendizaje sin supervisión

    En primer lugar, se presenta una trama de entrada en la capa de entrada y se propagan los datos por la red. Después, se permite que los pesos hagan ajustes progresivos de acuerdo con el algoritmo especificado. Una vez que se ha procedido a las actualizaciones de los pesos, se presenta una nueva trama en la capa de entrada, y el proceso se repite para todas las tramas del conjunto de entrenamiento hasta que la red esté clasificando correctamente las tramas de entrada.

    En el Neocognitrón, los pesos compartidos en un plano dado significan que sólo una célula de cada plano necesita participar en el proceso de aprendizaje. Una vez que los pesos han sido actualizados, se puede distribuir una copia del nuevo vector de pesos a las otras células del mismo plano. Para entender la forma en que funciona esto, se puede pensar que es como si los planos S de una capa dada estuvieran apilados verticalmente uno encima de otro, alineados de tal forma que las células de posiciones correspondientes estuvieran precisamente una encima de otra. Ahora se pueden imaginar múltiples columnas superpuestas que corren perpendicularmente a la pila. Estas columnas definen grupos de células S, en las cuales todos los miembros de cada grupo tienen los campos receptivos aproximadamente en la misma posición de la capa de entrada.

    Teniendo este modelo, se aplica una trama de entrada y se examina la respuesta de las células S de cada columna. Para asegurar que cada célula S produzca una respuesta nítida, se pueden dar a los pesos a1 unos valores pequeños, positivos y aleatorios. Los pesos b1 de las conexiones inhibitorias pueden recibir unos valores iniciales nulos. Primero se anota el plano y la posición de cada célula S cuya respuesta sea la más fuerte de cada columna. Después se examinan los planos individuales, de tal manera que si un plano contiene dos o más de estas células S, se desprecian todas las células S salvo la que responda con más intensidad. De esta manera se localizará la célula S de cada plano cuya respuesta sea la más intensa, con la condición de que cada una de estas células tiene que estar en una columna diferente. Esas células S pasan a ser los prototipos o representantes de todas las células de sus planos respectivos. De forma similar, la célula VC cuya respuesta sea la más intensa será seleccionada como representante de las demás células del plano VC.Una vez que se han seleccionado los representantes, se lleva a cabo la actualización de pesos de acuerdo con las siguientes ecuaciones:

    (4)

    (5)

    en donde ql es el parámetro de rapidez de aprendizaje, cl-1(v) es una función monótona decreciente, y la posición del representante del plan es .

    Obsérvese que los incrementos más grandes de los pesos se producen en aquellas conexiones que tienen la mayor señal de entrada, . Dado que la célula S cuyos pesos están siendo modificados era la que tenía la salida más grande, este algoritmo de aprendizaje está construyendo una cierta forma de aprendizaje de Hebb. Obsérvese también que los pesos sólo pueden aumentar, y que no hay una cota superior para los valores de los pesos. La forma de la ecuación (1) para la salida de la célula S garantiza que el valor de salida seguirá siendo finito, incluso para grandes valores de los pesos.

    Una vez que las células de un plano dado empiezan a responder a una cierta característica, tienden a responder menos a otras características. Una vez transcurrido un tiempo breve, cada plano habrá desarrollado una respuesta fuerte a una característica concreta. Además, a medida que se va examinando la red con más profundidad, los planos van a ir respondiendo a características cada vez más complejas.

    2.2.2. Otros métodos de aprendizaje

    Los diseñadores del Neocognitrón original sabían a qué características deseaban que respondiera cada nivel, y cada plano dentro de cada nivel. En estas circunstancias, se puede desarrollar un conjunto de vectores de entrenamiento para cada capa, y las capas se pueden entrenar independientemente. La figura 8 muestra las tramas de entrenamiento que se emplearon para entrenar 38 planos de la segunda capa del Neocognitrón que se mostró en la figura 3.

    También es posible seleccionar por anticipado la célula representativa de cada plano. Es preciso tener cuidado, sin embargo, para asegurarse de que la trama de entrada sea presentada en la posición correcta con respecto al campo perceptivo del representante. Una vez más, se precisa un cierto conocimiento de las características deseadas.

    Suponiendo que los vectores de peso y los de entrada estén normalizados, se pueden hacer las actualizaciones de peso de las células representativas empleando un método para hacerlas más competitivas. Para realizar este método, lo que se haría básicaente es rotar ligeramente el vector de pesos existente en la dirección del vector de entrada. Se necesitaría multiplicar primero el vector de entrada por la función monótona decreciente y renormalizar.

    Redes Neuronales

    (Figura 8)

    Esta figura muestra las cuatro tramas que se emplearon para entrenar a todos y cada uno de los 38 planos de la capa US2 del Neocognitrón diseñado para reconocer los números del 0 al 9. Los paréntesis cuadrados indican agrupamientos de planos S cuyas conexiones de salida convergen en un mismo plano C de la capa siguiente.

    2.3 Procesamiento de la capa C

    Las funciones que describen el procesamiento de la capa C son de forma similar a las correspondientes a las células S. También como la capa S, cada capa C tiene asociada a ella un único plano de unidades inhibitorias que se comportan de manera similar a las células VC de la capa S. La salida de estas unidades se denota en la forma .

    En general, las unidades de un plano C dado reciben conexiones de entrada procedentes de un plano S, o todo lo más de un pequeño número de ellos, situados en la capa anterior. Las células VS reciben conexiones de entrada procedentes de todos los planos S de la capa anterior.

    La salida de una célula C viene dada por

    (6)

    en donde Kl es el número de planos S que hay en el nivel l; es uno o cero dependiendo de si el plano S Kl está o no conectado con el plano C kl, dl(v) es el peso de la conexión existente entre la célula S situada en la posición v del campo receptivo de la célula C y Dl define la geometría del campo receptivo de la célula C.

    La función está definida por

    (7)

    en donde es una constante. La salida de las células VS está dada por

    (8)

    Los pesos dl(v) son fijos cuya forma general es la misma que los cl(v).

    También hay que hacer notar la ausencia de pesos en la conexión procedente de la célula S, según indica el denominador de la ecuación (6). La ecuación (8) indica que la célula VS está calculando el valor medio de la entrada para todos los planos S. En ese caso, la ecuación (6) puede tener un valor no nulo sólo si la respuesta excitatoria de la célula C es mayor que la media. Este comportamiento es similar al de las células S, aunque la medida de la media es distinta en cada caso.

    En resumen, sólo un cierto porcentaje de células S y células C de cada nivel responde con un valor de salida positivo. Se trata de aquellas cuyo nivel de excitación supera al de las células medias.

    3. RENDIMIENTO DEL NEOCOGNITRÓN

    La figura 9 muestra una respuesta típica de las células del Neocognitrón de nueve capas entrenado para reconocer números escritos a mano entre el 0 y el 9. Este ejemplo concreto muestra a la red cuando se le presenta el número 2. Cuando los datos se han propagado hasta la capa final, sólo hay dos células que están dando alguna respuesta. La célula que corresponde al número 2 es la que muestra una respuesta más intensa.

    En la figura 10 aparecen algunos ejemplos de números que fueron reconocidos con éxito. Por último, en la figura 11 hay un ejemplo de una trama que da lugar a una respuesta completamente ambigua por parte del Neocognitrón. En la sección siguiente se describe un método para resolver tramas tales como la que aparece en la figura 11.

    Redes Neuronales

    (Figura 9)

    En esta figura, el número 2 aparece en la retina del Neocognitrón. Todos los planos de cada nivel están indicados mediante cajas individuales. Las células que hay dentro de aquellos planos que están respondiendo a la entrada se indican en negro dentro de las cajas. Los planos de la capa UC4 sólo tienen una célula por plano, y cada célula corresponde a uno de los números del 0 al 9. La intensidad de la respuesta procedente de cada unidad de esa capa está indicada por el grado de oscurecimiento de la caja asociada.

    (Figura 10)

    Se muestran algunos ejemplos de números que fueron reconocidos por el Neocognitrón. Las tramas varían según su tamaño, posición en la retina, grado de distorsión y adición de ruido.

    Redes Neuronales

    (Figura 11)

    Esta trama muestra el número 4 superpuesto al número 2. Esta trama no se puede identificar sin ambigüedad mediante el Neocognitrón que se ha estado describiendo.

    4. ADICIÓN DE INHIBICIÓN LATERAL Y DE REALIMENTACIÓN AL NEOCOGNITRÓN

    El ejemplo de tramas superpuestas que se describía anteriormente da lugar a dos problemas. El primero consiste en resolver la ambigüedad para que la red tome una decisión clara. La segunda consiste en hacer que la red reconozca e identifique las dos tramas que están presentes en la retina.

    Se puede conseguir que la red se decida por una de las dos tramas añadiendo una inhibición lateral entre células vecinas de la capa. Si cada célula inhibe a otras células, entonces las pequeñas diferencias de respuesta se irán amplificando con el paso del tiempo, y normalmente habrá una célula de la última capa que acabará por surgir como ganadora indiscutible.

    El segundo problema se puede resolver añadiendo vías de realimentación a la red, junto con otros dispositivos, tales como controles de ganancia en las células y condiciones de umbral variables. Si se presenta una trama como la que hay en la figura 11, las conexiones hacia delante y la inhibición lateral pueden funcionar de tal modo que seleccione una única célula para que responda en la capa final de la red. Esta célula puede representar o bien un 2 o bien un 4, y unas tramas de entrada ligeramente distintas pueden alterar la respuesta inicial.

    Siguiendo este proceso inicial, se envían señales hacia atrás, en dirección a la retina, a través de otros planos de células, llamadas células WS y células WC. Durante el proceso de propagación hacia delante, sólo permanecen activas algunas células C y algunas células S. Estas células controlan las vías de realimentación de tal manera que las señales de realimentación retroceden por el mismo camino a través de la red, en dirección a la retina. Por su parte, las células WS y las células WC facilitan el fortalecimiento de las respuestas de células C y células S activas, efectuando cambios en los umbrales y en las ganancias de estas células. Por tanto, se produce un efecto de resonancia mantenida.

    Para hacer que la red reconozca la segunda trama que está presente en la retina, lo único que se necesita es interrumpir momentáneamente las señales de realimentación. Esta acción da lugar a que disminuya la ganancia de todas las células C activas, como si se fatigasen. Como resultado, pueden responder otras células que estuviesen inactivas anteriormente, y se establecerá una segunda resonancia allí donde sea identificada la segunda trama en la última capa de la red.

    Aunque sólo se ha tratado por encima la inhibición lateral y la realimentación, no quiere esto dar la impresión de que sea fácil realizar estos dispositivos. Los detalles de arquitectura y las ecuaciones de proceso necesarias son parecidas a las del Neocognitrón, pero son considerablemente más complejas.

    5. BIBLIOGRAFÍA

    “Redes neuronales: Algoritmos, aplicaciones y técnicas de programación”

    James A. Freeman / David M. Skapura

    Ed.Addison - Wesley / Díaz de Santos

    Página 17 de 17

    Redes Neuronales




    Descargar
    Enviado por:Julio Ruiz
    Idioma: castellano
    País: España

    Te va a interesar