-
Alan Turing y el primer modelo de red neuronal
Alan Turing estudio el cerebro humano como una forma de ver el mundo en la computación. Estableciendo una teoria acerca de la forma de trabajar de las neuronas con la ayuda de Warren McCulloch y Walter Pitts. -
Aprendizaje no supervisado - Donald Hebb
Utiliza datos de entrenamiento no etiquetados previamente y no necesita tutor externo. Los datos son presentados simplemente a la red, que de acuerdo con ellos configura cúmulos internos que comprimen los datos de entrada en cierto número de categorías de clasificación. Este tipo de aprendizaje es el aplicado en las Redes de Kohonen -
Modelo neuronal de McCulloch-Pitts
El primer modelo matem´atico de una neurona artificial, creado con el fin
de llevar a cabo tareas simples, fu´e presentado en el a˜no 1943 en un trabajo
conjunto entre el psiquiatra y neuroanatomista Warren McCulloch y el matem´atico
Walter Pitts -
Procesos del aprendizaje
Donald Hebb , fue el primero en explicar los procesos del aprendizaje. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.Esto es la base de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. -
Nacimiento de la inteligencia artificial
Se define el concepto de inteligencia artificial en Dartmouth durante una conferencia convocada por McCarthy (con asistencia de científicos, investigadores,psicólogos y teóricos de las ciencias sociales). -
Desarrollo de la red neuronal Perceptron
Frank Rosenblatt desarrollo este modelo que era capaz de generalizar, es decir, después de haber aprendido
una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. -
Principios de Neurodinámica
Frank Rosenblatt saca un libro confirmando que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estadofinito (Teorema de Convergencia del Perceptron). -
Desarrollo del modelo Adaline
Bernard Widroff y Marcian Hoff desarrollaron el modelo adaline que fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas. -
Rosemblatt El Perceptrón
es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida. -
Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales
ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como 7 el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real. -
ALAIN COLMENAUER Y SU EQUIPO DE INVESTIGACIÒN
CREAN PROLOG UN LENGUAJE DE PROGRAMACIÒN PARA INTELIGENCIA ARTIFICIAL -
Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje
Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985. -
Propagacion hacia atrás
Frank Rosenblat es un algoritmo de aprendizaje supervisado resuelve eficazmente el problema, y en general el problema de la formación de redes neuronales rápida de múltiples capas -
Anderson Los Modelos de memorias asociativas.
James Anderson, que desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales (neuronas) que sumaban sus entradas.Anderson diseñó una potente extensión del Asociador Lineal, llamada Brain State in a Box (BSB). -
Teuvo Kohonen mapas auto-organizados o SOM
La red auto-organizada identifica rasgos comunes, regularidades, correlaciones o categorías en los datos de entrada, e incorporarlos a su estructura interna de conexiones,(usa el aprendizaje no supervisado) -
Kohonen Mapas de Kohonen
Este investigador fines desarrolló redes basadas en aprendizaje competitivo, con una idea nueva basada en la biología: Las unidades de procesos físicamente adyacentes aprenderán a representar patrones de entrada similares, así las neuronas de salida adyacentes identifican patrones similares. -
John Hopfield. Provocó el renacimiento de las redes neuronales
John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.” -
David Rumelhart/G. Hinton
David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). Se aplica a problemas relacionados con el aprendizaje en computación y psicología. -
Grossberg El modelo ART (Adaptative Resonance Theory)
es una teoría desarrollada por Stephen Grossberg y Gail Carpenter sobre aspectos de cómo el cerebro procesa la información. Describe una serie de modelos de redes neuronales que utilizan métodos de aprendizaje supervisados y no supervisados, y abordan problemas tales como el reconocimiento y la predicción de patrones . -
SE DESARROLLAN SISTEMAS INTELIGENTES TERAPÉUTICOS QUE PERMITEN DETECTAR EMOCIONES PARA PODER INTERACTUAR CON NIÑOS AUTISTAS.
-
La existencia de un algoritmo de retropropagación
Se logró implementar, según Daumé III (2014), un enfoque para hacer una cadena de colección de perceptrones para construir redes neuronales más complejas, o como comúnmente se le denomina «perceptrón multicapa» Al poseer varias capas de neuronas se logró ganar mayor flexibilidad en las salidas, y por ende se pudo solucionar el clásico problema de la operación XOR que no era posible por medio del perceptrón simple.