Tema: Redes Neuronales: Conceptos Básicos Y Aplicaciones.

1y ago
8 Views
2 Downloads
890.31 KB
55 Pages
Last View : 7d ago
Last Download : 3m ago
Upload by : Shaun Edmunds
Transcription

Universidad Tecnológica Nacional – Facultad Regional RosarioDepartamento de Ingeniería QuímicaGrupo de Investigación Aplicada a la Ingeniería Química (GIAIQ)Cátedra:Informática Aplicada a la Ingeniería de Procesos – Orientación ITema:Redes Neuronales: Conceptos Básicos yAplicaciones.Profesores:Carlos Alberto RuizMarta Susana BasualdoAutor:Damián Jorge MatichMarzo de 2001Rosario – Marzo del 2001

0ContenidosContenidos. 2Introducción. 41.1Acerca de las redes neuronales. .4Reseña Histórica . 62.1Historia de las redes neuronales. .6Generalidades. 83.1Definiciones de una red neuronal. .83.2Ventajas que ofrecen las red neuronal. .83.2.13.2.23.2.33.2.43.2.53.3Aprendizaje adaptativo. . 9Auto-organización. 9Tolerancia a fallos. . 9Operación en tiempo real. . 10Fácil inserción dentro de la tecnología existente. . 10Redes neuronales y computadoras digitales. .10Elementos Básicos . 124.1Elementos básicos que componen una red neuronal.124.2Función de entrada (input function). .124.3Función de activación (activation function).144.4Función de salida (output function). .15Aprendizaje, Validación y Codificación. 165.1Niveles o capas de una red neuronal. .165.2Tipos de neuronas artificiales. .165.3Técnicas de decisión. .165.4Mecanismos de aprendizaje. .185.4.1Aprendizaje supervisado. . 195.4.1.1 Aprendizaje por corrección de error. 205.4.1.2 Aprendizaje por refuerzo. . 205.4.1.3 Aprendizaje estocástico. . 215.4.2Aprendizaje no supervisado. . 215.4.2.1 Aprendizaje hebbiano. 225.4.2.2 Aprendizaje competitivo y comparativo. . 225.5Elección del conjunto inicial de pesos.225.6Detención del proceso de aprendizaje. .225.7Codificación de los datos de entrada. .235.7.15.7.25.7.35.8Codificación de los atributos numéricos. . 23Codificación de los atributos simbólicos. . 24Resumen de los procedimientos de codificación. 25Validación de la red neuronal. .252

5.9Cuestiones a resolver al trabajar con una red neuronal.25Principales Topologías. 276.1Topología de las redes neuronales. .276.2Redes monocapa.276.3Redes multicapa. .276.4Conexión entre neuronas.276.5Redes de propagación hacia atrás (backpropagation). .286.5.1Ejemplo. . 286.6Estructura de la Red Hopfield. .296.7Simulated Annealing aplicada a una Red Hopfield. .306.8Asociaciones entre la información de entrada y salida.316.8.16.8.2Redes heteroasociativas. . 32Redes autoasociativas. . 32Aplicaciones . 347.1Aplicaciones de las redes neuronales.347.1.17.1.27.1.37.1.47.2Asociación y clasificación. . 35Regeneración de patrones. . 36Regeneración y generalización. 36Optimización. . 36Casos concretos de aplicación. .367.2.17.2.27.2.3Planificación del staff (cuerpo) de empleados. 37Planificación de la demanda de materiales. . 38Puntuación para la solicitud de un crédito. . 40Software Comerciales . 438.1Aplicaciones del NeurOn-Line Studio a procesos de refinería y petroquímica.438.2Software que pueden ser empleados en la industria de procesos. .54Bibliografía . 553

1Introducción1.1 Acerca de las redes neuronales.El hombre se ha caracterizado siempre por su búsqueda constante de nuevas víaspara mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir eltrabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Losprogresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como porejemplo, a la construcción de máquinas calculadoras que ayuden a resolver de formaautomática y rápida determinadas operaciones que resultan tediosas cuando se realizan amano.Uno de los primeros en acometer esta empresa fue Charles Babbage, quien tratóinfructuosamente de construir una máquina capaz de resolver problemas matemáticos.Posteriormente otros tantos intentaron construir máquinas similares, pero no fue hasta laSegunda Guerra Mundial, cuando ya se disponía de instrumentos electrónicos, que seempezaron a recoger los primeros frutos. En 1946 se construyó la primera computadoraelectrónica, ENIAC. Desde entonces los desarrollos en este campo han tenido un augeespectacular.Estas máquinas permiten implementar fácilmente algoritmos para resolvermultitud de problemas que antes resultaban engorrosos de resolver. Sin embargo, seobserva una limitación importante: ¿qué ocurre cuando el problema que se quiereresolver no admite un tratamiento algorítmico, como es el caso, por ejemplo, de laclasificación de objetos por rasgos comunes? Este ejemplo demuestra que laconstrucción de nuevas máquinas más versátiles requiere un enfoque del problemadesde otro punto de vista. Los desarrollos actuales de los científicos se dirigen al estudiode las capacidades humanas como una fuente de nuevas ideas para el diseño de lasnuevas máquinas. Así, la inteligencia artificial es un intento por descubrir y describiraspectos de la inteligencia humana que pueden ser simulados mediante máquinas. Estadisciplina se ha desarrollado fuertemente en los últimos años teniendo aplicación enalgunos campos como visión artificial, demostración de teoremas, procesamiento deinformación expresada mediante lenguajes humanos. etc.Las redes neuronales son más que otra forma de emular ciertas característicaspropias de los humanos, como la capacidad de memorizar y de asociar hechos. Si seexaminan con atención aquellos problemas que no pueden expresarse a través de unalgoritmo, se observará que todos ellos tienen una característica en común: laexperiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experienciaacumulada. Así, parece claro que una forma de aproximarse al problema consista en laconstrucción de sistemas que sean capaces de reproducir esta característica humana. Endefinitiva, las redes neuronales no son más que un modelo artificial y simplificado delcerebro humano, que es el ejemplo más perfecto del que disponemos para un sistemaque es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es“un nuevo sistema para el tratamiento de la información, cuya unidad básica deprocesamiento está inspirada en la célula fundamental del sistema nervioso humano: laneurona”.4

Todos los procesos del cuerpo humano se relacionan en alguna u otra forma conla (in)actividad de estas neuronas. Las mismas son un componente relativamente simpledel ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacenmuy poderosas.Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neuronaes estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un ciertoumbral, la neurona se dispara o activa, pasando una señal hacia el axon. Posterioresinvestigaciones condujeron al descubrimiento de que estos procesos son el resultado deeventos electroquímicos.Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta debillones de neuronas interconectadas. Así, el secreto de la “inteligencia” -sin importarcomo se defina- se sitúa dentro de estas neuronas interconectadas y de su interacción.También, es bien conocido que los humanos son capaces de aprender. Aprendizajesignifica que aquellos problemas que inicialmente no pueden resolverse, pueden serresueltos después de obtener más información acerca del problema. Por lo tanto, lasRedes Neuronales. Consisten de unidades de procesamiento que intercambian datos oinformación. Se utilizan para reconocer patrones, incluyendo imágenes, manuscritos ysecuencias de tiempo (por ejemplo: tendencias financieras). Tienen capacidad de aprender y mejorar su funcionamiento.Una primera clasificación de los modelos de redes neuronales podría ser,atendiendo a su similitud con la realidad biológica:1) El modelo de tipo biológico. Este comprende las redes que tratan de simularlos sistemas neuronales biológicos, así como las funciones auditivas o algunas funcionesbásicas de la visión.2) El modelo dirigido a aplicación. Este modelo no tiene por qué guardarsimilitud con los sistemas biológicos. Su arquitectura está fuertemente ligada a lasnecesidades de las aplicaciones para la que es diseñada.5

2Reseña Histórica2.1 Historia de las redes neuronales.1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma dever el mundo de la computación. Sin embargo, los primeros teóricos que concibieron losfundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo,y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la formade trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la ActividadNerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una redneuronal simple mediante circuitos eléctricos.1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje(que es el elemento básico de la inteligencia humana) desde un punto de vistapsicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es elfundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en unared neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en unaneurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y laactividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las RedesNeuronales.1950 - Karl Lashley. En sus series de ensayos, encontró que la información noera almacenada en forma centralizada en el cerebro sino que era distribuida encima deél.1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona paraindicar el nacimiento de la inteligencia artificial.1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la redneuronal más antigua; utilizándose hoy en día para aplicación como identificador depatrones. Este modelo era capaz de generalizar, es decir, después de haber aprendidouna serie de patrones podía reconocer otros similares, aunque no se le hubiesenpresentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, porejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, engeneral, era incapaz de clasificar clases no separables linealmente.1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmóque, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estadofinito (Teorema de Convergencia del Perceptron).1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a unproblema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se hautilizado comercialmente durante varias décadas.1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizacionestécnicas (memoria asociativa).1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerteabrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente)que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como6

el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil,dado que las funciones no-lineales son extensamente empleadas en computación y enlos problemas del mundo real.1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje depropagación hacia atrás (backpropagation); cuyo significado quedó definitivamenteaclarado en 1985.1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría deResonancia Adaptada es una arquitectura de red que se diferencia de todas las demáspreviamente inventadas. La misma simula otras habilidades del cerebro: memoria alargo y corto plazo.1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con sulibro: “Computación neuronal de decisiones en problemas de optimización.”1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizajede propagación hacia atrás (backpropagation).A partir de 1986, el panorama fue alentador con respecto a lasinvestigaciones y el desarrollo de las redes neuronales. En la actualidad, sonnumerosos los trabajos que se realizan y publican cada año, las aplicacionesnuevas que surgen (sobretodo en el área de control) y las empresas que lanzanal mercado productos nuevos, tanto hardware como software (sobre todo parasimulación).7

3Generalidades3.1 Definiciones de una red neuronal.Existen numerosas formas de definir a las redes neuronales; desde lasdefiniciones cortas y genéricas hasta las que intentan explicar más detalladamente quéson las redes neuronales. Por ejemplo:1) Una nueva forma de computación, inspirada en modelos biológicos.2) Un modelo matemático compuesto por un gran número de elementosprocesales organizados en niveles.3) .un sistema de computación compuesto por un gran número de elementossimples, elementos de procesos muy interconectados, los cuales procesan informaciónpor medio de su estado dinámico como respuesta a entradas externas.4) Redes neuronales artificiales son redes interconectadas masivamente enparalelo de elementos simples (usualmente adaptativos) y con organización jerárquica,las cuales intentan interactuar con los objetos del mundo real del mismo modo que lohace el sistema nervioso biológico.3.2 Ventajas que ofrecen las red neuronal.Debido a su constitución y a sus fundamentos, las redes neuronales artificialespresentan un gran número de características semejantes a las del cerebro. Por ejemplo,son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevoscasos, de abstraer características esenciales a partir de entradas que representaninformación irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipode tecnología se esté aplicando en múltiples áreas. Entre las ventajas se incluyen: Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas enun entrenamiento o en una experiencia inicial. Auto-organización. Una red neuronal puede crear su propia organización orepresentación de la información que recibe mediante una etapa de aprendizaje. Tolerancia a fallos. La destrucción parcial de una red conduce a unadegradación de su estructura; sin embargo, algunas capacidades de la red se puedenretener, incluso sufriendo un gran daño. Operación en tiempo real. Los cómputos neuronales pueden ser realizados enparalelo; para esto se diseñan y fabrican máquinas con hardware especial para obteneresta capacidad. Fácil inserción dentro de la tecnología existente. Se pueden obtener chipsespecializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ellofacilitará la integración modular en los sistemas existentes.8

3.2.1 Aprendizaje adaptativo.La capacidad de aprendizaje adaptativo es una de las características másatractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas medianteun entrenamiento con ejemplos ilustrativos.Como las redes neuronales pueden aprender a diferenciar patrones medianteejemplos y entrenamientos, no es necesario elaborar modelos a priori ni necesidad deespecificar funciones de distribución de probabilidad.Las redes neuronales son sistemas dinámicos autoadaptativos. Son adaptablesdebido a la capacidad de autoajuste de los elementos procesales (neuronas) quecomponen el sistema. Son dinámicos, pues son capaces de estar constantementecambiando para adaptarse a las nuevas condiciones.En el proceso de aprendizaje, los enlaces ponderados de las neuronas se ajustande manera que se obtengan ciertos resultados específicos. Una red neuronal no necesitaun algoritmo para resolver un problema, ya que ella puede generar su propiadistribución de pesos en los enlaces mediante el aprendizaje. También existen redes quecontinúan aprendiendo a lo largo de su vida, después de completado su período deentrenamiento.La función del diseñador es únicamente la obtención de la arquitecturaapropiada. No es problema del diseñador el cómo la red aprenderá a discriminar. Sinembargo, sí es necesario que desarrolle un buen algoritmo de aprendizaje que leproporcione a la red la capacidad de discriminar, mediante un entrenamiento conpatrones.3.2.2 Auto-organización.Las redes neuronales emplean su capacidad de aprendizaje adaptativo paraautoorganizar la información que reciben durante el aprendizaje y/o la operación.Mientras que el aprendizaje es la modificación de cada elemento procesal, laautoorganización consiste en la modificación de la red neuronal completa para llevar acabo un objetivo específico.Cuando las redes neuronales se usan para reconocer ciertas clases de patrones,ellas autoorganizan la información usada. Por ejemplo, la red llamada backpropagation,creará su propia representación característica, mediante la cual puede reconocer ciertospatrones.Esta autoorganización provoca la generalización: facultad de las redesneuronales de responder apropiadamente cuando se les presentan datos o situaciones alas que no había sido expuesta anteriormente. El sistema puede generalizar la entradapara obtener una respuesta. Esta característica es muy importante cuando se tiene quesolucionar problemas en los cuales la información de entrada no es muy clara; ademáspermite que el sistema dé una solución, incluso cuando la información de entrada estáespecificada de forma incompleta.3.2.3Tolerancia a fallos.Las redes neuronales fueron los primeros métodos computacionales con lacapacidad inherente de tolerancia a fallos. Comparados con los sistemas9

computacionales tradicionales, los cuales pierden su funcionalidad cuando sufren unpequeño error de memoria, en las redes neuronales, si se produce un fallo en un númerono muy grande de neuronas y aunque el comportamiento del sistema se ve influenciado,no sufre una caída repentina.Hay dos aspectos distintos respecto a la tolerancia a fallos:a) Las redes pueden aprender a reconocer patrones con ruido, distorsionados oincompletos. Esta es una tolerancia a fallos respecto a los datos.b) Las redes pueden seguir realizando su función (con cierta degradación)aunque se destruya parte de la red.La razón por la que las redes neuronales son tolerantes a los fallos es que tienensu información distribuida en las conexiones entre neuronas, existiendo cierto grado deredundancia en este tipo de almacenamiento. La mayoría de los ordenadoresalgorítmicos y sistemas de recuperación de datos almacenan cada pieza de informaciónen un espacio único, localizado y direccionable. En cambio, las redes neuronalesalmacenan información no localizada. Por lo tanto, la mayoría de las interconexionesentre los nodos de la red tendrán sus valores en función de los estímulos recibidos, y segenerará un patrón de salida que represente la información almacenada.3.2.4 Operación en tiempo real.Una de las mayores prioridades, casi en la totalidad de las áreas de aplicación, esla necesidad de realizar procesos con datos de forma muy rápida. Las redes neuronalesse adaptan bien a esto debido a su implementación paralela. Para que la mayoría de lasredes puedan operar en un entorno de tiempo real, la necesidad de cambio en los pesosde las conexiones o entrenamiento es mínimo.3.2.5 Fácil inserción dentro de la tecnología existente.Una red individual puede ser entrenada para desarrollar una única y biendefinida tarea (tareas complejas, que hagan múltiples selecciones de patrones,requerirán sistemas de redes interconectadas). Con las herramientas computacionalesexistentes (no del tipo PC), una red puede ser rápidamente entrenada,comprobada, verificada y trasladada a una implementación hardware de bajocoste. Por lo tanto, no se presentan dificultades para la inserción de redesneuronales en aplicaciones específicas, por ejemplo de control, dentro de lossistemas existentes. De esta manera, las redes neuronales se pueden utilizar paramejorar sistemas en forma incremental y cada paso puede ser evaluado antes deacometer un desarrollo más amplio.3.3 Redes neuronales y computadoras digitales.Para entender el potencial de la computación neuronal, sería necesario hacer unabreve distinción entre sistemas de computación neuronales y digitales: los sistemasneurológicos no aplican principios de circuitos lógicos o digitales.Un sistema de computación digital debe ser síncrono o asíncrono. Si fueraasíncrono, la duración de los impulsos neuronales debería ser variable para manteneruno de los valores binarios por periodos de tiempo indefinido, lo cual no es el caso. Si el10

principio fuera síncrono, se necesitaría un reloj global o maestro con el cual los pulsosestén sincronizados. Éste tampoco es el caso. Las neuronas no pueden ser circuitos deumbral lógico, porque hay miles de entradas variables en la mayoría de las neuronas y elumbral es variable con el tiempo, siendo afectado por la estimulación, atenuación, etc.La precisión y estabilidad de tales circuitos no es suficiente para definir ninguna funciónbooleana. Los procesos colectivos que son importantes en computación neuronal nopueden implementarse por computación digital. Por todo ello, el cerebro debe ser uncomputador analógico.Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todoslos hechos fisiológicos hablan a favor de las acciones de las neuronas como integradoresanalógicos, y la eficiencia de la sinapsis cambia de forma gradual, lo cual no escaracterístico de sistemas biestables.Los circuitos del cerebro no implementan computación recursiva y por lo tantono son algorítmicos. Debido a los problemas de estabilidad, los circuitos neuronales noson suficientemente estables para definiciones recursivas de funciones como encomputación digital. Un algoritmo, por definición, define una función recursiva.11

4Elementos Básicos4.1 Elementos básicos que componen una red neuronal.I1O1I2O2InOnSalidasEntradasA continuación se puede ver, en la Figura 4.1, un esquema de una red neuronal:Capa deCapasCapa deentradaocultassalidaFigura 4.1: ejemplo de una red neuronal totalmente conectada.La misma está constituida por neuronas interconectadas y arregladas en trescapas (esto último puede variar). Los datos ingresan por medio de la “capa de entrada”,pasan a través de la “capa oculta” y salen por la “capa de salida”. Cabe mencionar quela capa oculta puede estar constituida por varias capas.Antes de comenzar el estudio sobre las redes neuronales, se debe aprender algosobre las neuronas y de cómo ellas son utilizadas por una red neuronal. En la Figura 4.2se compara una neurona biológica con una neurona artificial. En la misma se puedenobservar las similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas).Dendritas (entradas)Sinapsis (pesos)Axon (salidas)Figura 4.2: comparación entre una neurona biológica (izquierda) y una artificial (derecha).Mientras una neurona es muy pequeña en sí misma, cuando se combinan cientos,miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo elcerebro humano se compone de billones de tales neuronas.4.2 Función de entrada (input function).La neurona trata a muchos valores de entrada como si fueran uno solo; estorecibe el nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema decómo se pueden combinar estas simples entradas (ini1, ini2, .) dentro de la entrada12

global, gini. Esto se logra a través de la función de entrada, la cual se calcula a partir delvector entrada. La función de entrada puede describirse como sigue:inputi (ini1 wi1)* (ini2 wi2)*. (inin win)donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria,productoria, etc.), n al número de entradas a la neurona Ni y wi al peso.Los valores de entrada se multiplican por los pesos anteriormente ingresados a laneurona. Por consiguiente, los pesos que generalmente no están restringidos cambian lamedida de influencia que tienen los valores de entrada. Es decir, que permiten que ungran valor de entrada tenga solamente una pequeña influencia, si estos son losuficientemente pequeños.Figura 4.3: ejemplo de una neurona con 2 entradas y 1 salida.La nomenclatura utilizada en la Figura 4.3 es la siguiente: ini1 entrada número1 a la neurona Ni; wi1 peso correspondiente a ini1; ini2 entrada número 2 a laneurona Ni; wi2 peso correspondiente a ini2; y outi salida de la neurona Ni. Elconjunto de todas las n entradas ini (ini1, ini2, ., inin) es comúnmente llamado “vectorentrada”.Algunas de las funciones de entrada más comúnmente utilizadas y conocidasson:1) Sumatoria de las entradas pesadas: es la suma de todos los valores deentrada a la neurona, multiplicados por sus correspondientes pesos. (nijwij ) ,con j 1, 2, ., nj2) Productoria de las entradas pesadas: es el producto de todos los valores deentrada a la neurona, multiplicados por sus correspondientes pesos. (nijwij ) , con j 1, 2, ., nj3) Máximo de las entradas pesadas: solamente toma en consideración el valorde entrada más fuerte, previamente multiplicado por su peso correspon

Una primera clasificación de los modelos de redes neuronales podría ser, atendiendo a su similitud con la realidad biológica: 1) El modelo de tipo biológico. Este comprende las redes que tratan de simular los sistemas neuronales biológicos, así como las funciones auditivas o algunas funciones básicas de la visión.

Related Documents:

tema 1.- introducciÓn a la computaciÓn neuronal 1.6.- aplicaciones de las redes neuronales artificiales tema 2.- fundamentos de las redes neuronales artificiales 2.2.- la neurona artificial 2.3.- redes neuronales artificiales de una capa y multicapa 2.4.- entrenamiento de las redes neuronales artificiales tema 3.-

Posible generalizar conceptos a partir de casos particulares Tema 14: Redes Neuronales- p. 8/49. Sistema Neuronal Artificial El modelo estándard de neurona artificial Rumelhart y McClelland (1986) y McClelland y . Tema 14: Redes Neuronales- p. 30/49. El Perceptrón Simple Algoritmo de Aprendizaje (Rosenblatt, 1962)

A las redes neuronales (conneccionismo, proceso paralelo distribuido, computacion neuronal, redes adaptivas, computacion colectiva) las podemos entender desde dos puntos de vista: Computacional: Representar funciones usando redes de elementos con calculo aritm etico sencillo, y m etodos para aprender esa representacion a partir de .

Neuronales que se requiere para el desarrollo del tema. Además se presenta el modelo y resolución de una problemática abordada con redes neuronales. En la sección 4 se presenta un ejercicio de prueba realizado como entrenamiento en trabajo con Redes Neuronales. A continuación en la sección 5 se muestra la implementación del proyecto.

Tema 9: Introduccio n a las redes neuronales D. Balbont ın Noval F. J. Mart ın Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computaci on e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial IA 2013-2014 Tema 9: Introducci on a las redes neuronales.

Tema 8. Redes Neuronales Pedro Larra naga, I naki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computaci on e Inteligencia Arti cial Universidad del Pa s Vasco{Euskal Herriko Unibertsitatea 8.1 Introducci on En este tema vamos a introducir el paradigma de redes neuronales arti ciales, muy popular dentro de la Inteligencia Computacional.

Tema 9: Introduccio n a las redes neuronales D. Balbont ın Noval F. J. Mart ın Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computaci on e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial IA 2012-2013 Tema 9: Introducci on a las redes neuronales.

Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 (c) P. Gómez-Gil, INAOE 2009 . Redes Neuronales de un Nivel Son aquellas donde los elementos procesadores están organizados en una línea, recibiendo su entrada