Marvin Minsky (Nueva York, 9 de
agosto de 1927) es un informático, científico y escritor considerado uno de los
padres de las ciencias de la computación. Cofundador en 2003 del CSAIL
(laboratorio de inteligencia artificial del MIT (instituto tecnológico de
Massachusetts)), recibió el premio Turing en 1969 y el premio Japón en 1990,
así como el premio BBVA Fronteras del Conocimiento en Tecnologías de la
Información y la Comunicación.
![]() |
|
Basándose en la idea de que el
cerebro es una máquina que se puede replicar, abordó el problema de dotar a
estos aparatos de sentido común, dotándolos del conocimiento que el hombre
adquiere mediante la experiencia. Además, es autor de contribuciones esenciales
en matemáticas, ciencia cognitiva, robótica y filosofía.
Escribió junto a Seymour Papert
el libro Perceptrones, el trabajo fundacional en el análisis de redes
neuronales artificiales.
La computación neuronal.
Es lógico pensar que si las máquinas fuesen
capaces de simular el sistema de cómputo con el que nos ha dotado la
naturaleza, basado en una enorme red de neuronas, estarían en condiciones de
pensar tal y como lo hacemos las personas.
El funcionamiento de una neurona
se podría comparar con el de un diodo con entradas ponderadas: si el potencial
de las entradas (dentritas) alcanza un cierto valor se producirá una salida
(axónes), de lo contrario no. La diferencia es que no todos los valores de las
entradas van a tener la misma importancia de cara a decidir si se produce o no
la salida.
Para que se produzca el
aprendizaje, solo es necesaria una neurona. El aprendizaje consiste en
modificar el valor de los pesos (importancia de cada entrada) aplicando un
algoritmo a nuestro valor de salida. El psicólogo Donald O. Hebb enunció una
regla según la cual “las conexiones que unen diferentes neuronas que se
encuentran activas en un instante dado se fortalecen”. Se refiere a que si la
neurona está transmitiendo, las entradas que están activas tendrán más
importancia de la que ya tenían. Esto es, a grandes rasgos, la esencia de la
computación neuronal, especialmente la no supervisada, la cual nos encontramos
en la naturaleza.
Redes neuronales artificiales.
Denominadas habitualmente RNA
(ANN en inglés). Son un paradigma de aprendizaje y procesamiento automático
inspirado en la forma en que funciona el sistema nervioso de los animales.
Se trata de un sistema de
interconexión de neuronas en una red que colabora para producir un estímulo de
salida. En inteligencia artificial es frecuente referirse a ellas como redes de
neuronas o redes neuronales.
Las redes neuronales consisten en
una simulación de las propiedades observadas en los sistemas neuronales
biológicos a través de modelos matemáticos recreados mediante mecanismos
artificiales (como un circuito integrado, un ordenador o un conjunto de
válvulas). Pueden ser desarrolladas tanto en software como en hardware y con
ellas se pueden construir sistemas capaces de aprender, de adaptarse a
condiciones variantes, o inclusive si se dispone de una colección
suficientemente grande de datos, predecir el estado futuro de algunos modelos. El
objetivo es conseguir que las máquinas den respuestas similares a las que es
capaz de dar el cerebro que se caracterizan por su generalización y su
robustez.
Se componen de unidades llamadas
neuronas. Cada neurona recibe una serie de entradas a través de interconexiones
y emite una salida. Esta salida viene dada por tres funciones:
- Una función propagación (también conocida como función de excitación), que por lo general consiste en el sumatorio de cada entrada multiplicada por el paso de su interconexión (valor neto). Si el peso es positivo, la conexión se denomina excitatoria. Si es negativo, se denomina inhibitoria.
- Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación.
- Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea (para obtener valores en el intervalo [0,1] y la tangente hiperbólica (para obtener valores en el intervalo [-1, 1]).
En la práctica las redes
neuronales artificiales no han creado en las máquinas comportamientos similares
a los de las personas. Sin embargo, lo cierto es que los problemas que
tradicionalmente son más complejos para las máquinas (visión artificial,
reconocimiento del habla, etc.), se resuelven mejor utilizando redes neuronales
que mediante otras perspectivas simbólicas.
La computación neuronal tiene
como tarea genérica la clasificación y reconocimiento de patrones (búsqueda,
clasificación, reconstrucción…). Por ejemplo, pensemos que queremos averiguar
en qué imágenes está Wally y en qué imágenes no. Nuestras entradas serían las
intensidades RGB de cada pixel de cada una de las imágenes, y tendría una única
salida que nos diría si está o no.
Las redes neuronales tienen un
modelo inherentemente distribuido, puesto que un procesador puede simular una
neurona. Así mismo, son autoprogramables. La programación pasa por elegir un
número de neuronas, las conexiones entre las mismas, un número de salidas, un
número de entradas y una configuración inicial de pesos. Después bastaría con
alimentarla correctamente y, si el aprendizaje es supervisado, darle la
adecuada realimentación humana.
- Aplicaciones
Son una tecnología computacional que puede
utilizarse en un gran número y variedad de aplicaciones. Son adecuadas para enfrentar problemas que
hasta ahora eran resueltos solo por el cerebro humano y resultaban difíciles o
imposibles para las máquinas lógicas secuenciales. Un procesamiento paralelo
realizado por un gran número de elementos altamente interconectados, es la
clave de su fucionamiento.
Cuando se implementan mediante hardware (redes
neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y
proporcionan un grado de paralelismo en el proceso de datos muy grande.
Hay muchos tipos de redes neuronales pudiéndose clasificar
en distintas disciplinas: biología, empresa, medio ambiente, finanzas, manufacturación,
medicina, militar…
Las características de las RNA las hacen bastante
apropiadas para aplicaciones en las que no se dispone a priori de un modelo
identificable que pueda ser programado, pero se dispone de un conjunto básico
de ejemplos de entrada (previamente clasificados o no). Asimismo, son altamente
robustas tanto al ruido como a la disfunción de elementos concretos y son
fácilmente paralelizables.
- Caracteristicas.
Aprendizaje adaptativo.
Una de las características más
atractivas de las redes neuronales es que son sistemas dinámicos
autoadaptativos. Son adaptables debido a la capacidad e autoajuste de los
elementos procesales (neuronas) que componen el sistema, esto es, aprenden a
llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos
ilustrativos.
Autoorganización.
Cuando las redes neuronales se usan para
reconocer ciertas clases de patrones, autoorganizan la información usada. Emplean
esta capacidad para autoorganizar la información que reciben durante el
aprendizaje y/o la operación.
Tolerancia a fallos.
Las redes neuronales fueron los primeros
métodos computacionales con la capacidad inherente de tolerancia a fallos. Las redes pueden aprender a reconocer patrones con ruido,
distorsionados o incompletos (esta es una tolerancia a fallos respecto a los
datos) y seguir realizando su función, aún con cierta degradación,
aunque se destruya parte de la red.
Fácil inserción dentro de la tecnología existente.
Una red
individual puede ser entrenada para desarrollar una única y bien definida tarea.
Tareas complejas, que hagan múltiples selecciones de patrones, requerirán
sistemas de redes interconectadas.
- Evolución.
Los intentos por imitar el
funcionamiento del cerebro han seguido la evolución del estado de la
tecnología. Por ejemplo, al finalizar el siglo XIX se le comparó con la
operación de la bomba hidráulica; durante la década de 1920 a 1930 se intentó
utilizar la teoría de la conmutación telefónica como punto de partida de un
sistema de conocimiento similar al cerebro.
Entre 1940 y 1950 los científicos
comenzaron a pensar seriamente en las redes neuronales utilizando como concepto
la noción de que las neuronas del cerebro funcionan como interruptores
digitales (on-off) de manera también
similar al recién desarrollado computador digital. Así nace la idea de
“revolución cibernética” que maneja la analogía entre el cerebro y el
computador digital.
1943: teoría de las redes
neuronales artificiales.
Walter Pitts junto a Bertran
Russell y Warren McCulloch intentaron explicar en funcionamiento del cerebro
humano, por medio de una red de células conectadas entre sí, para experimentare
ejecutando operaciones lógicas. Partiendo del menor suceso psíquico (estimado
por ellos): el impulso todo/nada, generado por una célula nerviosa.
El bucle
“sentidos-cerebro-músculos”, mediante la retroalimentación, producirían una
reacción positiva si los músculos reducen la diferencia entre una condición
percibida por los sentidos y un estado físico impuesto por el cerebro.
También definieron la memoria
como un conjunto de ondas que reverberan en un circuito cerrado de neuronas.
1949: conductividad de la
sinápsis en las redes neuronales.
Seis años después de que
McCulloch y Pitts mostraran sus redes neuronales, el fisiólogo Donald O. Henn
(de la McGill University) expuso que éstas (las redes neuronales) podían
aprender. Su propuesta tenía que ver con la conductividad de la sinápsis, es
decir, con las conexiones entre neuronas.
Hebb expuso que la repetida
activación de una neurona por otra a través de una sinápsis determinada,
aumenta su conductividad y la hace más propensa a ser activada sucesivamente,
induciendo a la formación de un circuito de neuronas estrechamente conectadas
entre sí.
1951: primera red neuronal.
El sobresaliente estudiante de
Harvard, Marvin Minsky, conoció al científico Burrhus Frederic Skinner, con el
que trabajó algún tiempo ayudándole en el diseño y creación de máquinas para
sus experimentos. Minsky se inspiró en Skinner para gestar su primera idea
“oficial” sobre inteligencia artificial, su Red Neuronal. Por aquel entonces
entabló amistad con otro brillante estudiante, Dean Edmonds, el cual estaba
interesado en el estudio de una nueva ciencia llamada Electrónica.
Durante el verano de 1951, Minsky
y Edmonds montaron la primera máquina de redes neuronales, compuesta
básicamente por 300 tubos de vacío y un piloto automático de un bombardero
B-24. Llamaron a su creación SNARC; se trataba de nada menos que de una red de
40 neuronas artificiales que imitaban el cerebro de una rata. Cada neurona
hacía el papel de una posición del laberinto y cuando se activaba daba a
entender que la “rata” sabía en qué punto del laberinto estaba.
![]() |
Una de las “neuronas”
de la computadora SNARC. Imagen de Gregory Loan.
|
Las neuronas que estaban
conectadas alrededor de la activada, hacían la función de alternativas que
seguir por el cerebro, la activación de la siguiente neurona, es decir, la elección
entre “derecha” e “izquierda” en este caso estaría dada por la fuerza de sus
conexiones con la neurona activada.
Por ejemplo, la “rata” completaba
bien el recorrido eligiendo a partir de la quinta neurona la opción “izquierda”
(que correspondería a la sexta). Es entonces cuando las conexiones entre la
quinta y la sexta se hacen más fuertes (dicha conexión era realizada por el
piloto automático), haciendo desde este momento más propensa esta decisión en
un futuro.
Pero las técnicas Skinnerianas
(que eran las que se habían puesto en funcionamiento en esta red de neuronas)
no podrían llevar muy lejos a este nuevo engendro. La razón pasa porque esto,
en sí, no es inteligencia, pues la red neuronal nunca llegaría a trazar un
plan.
Después de su red neuronal,
Minsky escribió su tesis doctoral acerca de esta, en ella describía “cerebros
mucho mayores”, exponiendo que si se realizada este proyecto a gran escala, con
miles o millones de neuronas con más y con diferentes censores y tipos de
retroalimentación, la máquina podría ser capaz de razonar, mas él sabía que la
realización de esta red neuronal era imposible y decidió buscar otra forma de
crear inteligencia.
Redes neuronales e Inteligencia Artificial.
La inteligencia artificial es un
intento por descubrir aspectos de la inteligencia humana que pueden ser
simulados mediante máquinas. Las redes neuronales no son más que otra forma de
emular ciertas características propias de los humanos, como la capacidad de
memorizar y de asociar hechos.
Entre la inteligencia artificial
y las redes neuronales hay diferentes tecnologías o áreas de conocimiento. Las redes
de autoproceso son aquellas formadas por nodos en los que hay
elementos procesadores de información de cuyas interacciones locales depende el
comportamiento del conjunto del sistema.
El procesamiento simbólico representa un alto nivel de proceso cognitivo:
corresponde al pensamiento consciente, donde se representa, manipula y examina
el conocimiento. Por el contrario, en el procesamiento
numérico, las redes reciben directamente la señal de entrada desde
el exterior y operan sobre ella. Esta rama se dedica a los sistemas
constituidos por nodos hardware interconectados entre sí formando una red.
Si la conexión entre los nodos se
realiza agrupándolos en subredes, se denominan sistemas asociativos o redes de redes, mientras que si la
conexión se realiza de forma global bajo unas reglas de composición, estamos
ante sistemas distribuidos. Además de las ya nombradas redes neuronales, dentro de los
sistemas distribuidos encontramos las redes subsimbólicas, que se orientan a
simular los elementos de más bajo nivel que componen o intervienen en los
procesos inteligentes.
Implicaciones filosóficas de la creación de redes neuronales.
La mayoría de la gente piensa que
las computadoras nunca serán capaces de pensar. Sin duda, la mayoría de la gente también está
de acuerdo en que las computadoras pueden hacer muchas cosas para las cuales
una persona debería pensar. Entonces, ¿cómo podría una máquina hacer como que
piensa sin hacerlo realmente? Dejando a un lado la cuestión de qué es pensar exactamente, lo que la mayoría de
nosotros responderíamos a esa cuestión es que en esos casos, lo que está
haciendo el computador es una mera imitación superficial de la inteligencia
humana. Ha sido diseñado para obedecer determinados comandos simples y se le
han proporcionado programas compuestos por esos comandos. Debido a esto, el
computador debe obedecer esas órdenes o comandos, pero sin tener idea de lo que
está sucediendo.
En efecto, cuando las
computadoras aparecieron por primera vez, la mayoría de sus diseñadores las
destinaron únicamente para realizar grandes computaciones sin ir más allá. De
ahí el nombre de las computadoras.
Incluso entonces, algunos pioneros –en especial Alan Turing- concibieron lo que
conocemos ahora como Inteligencia
Artificial o IA. Vieron que los
computadores podrían posiblemente ir más allá de la aritmética e imitar quizás
los procesos que se llevan a cabo dentro del cerebro humano.
Hoy en día, con los robots en la
industria y el cine, la mayoría de las personas piensas que la IA ha ido mucho
más lejos de lo que ha ido en realidad. Sin embargo, todavía expertos en computación afirman que las
máquinas nunca llegarán a pensar. Si es así, ¿cómo podrían ser tan
inteligentes, y a la vez tan estúpidas?
¿Pueden las máquinas ser creativas?
Naturalmente, las personas
admiramos a nuestros Einsteins y Beethovens e imaginamos si los computadores
podrían llegar a crear teorías o sinfonías tan maravillosas como las suyas. La
mayoría de la gente piensa que la creatividad requiere de un “don” especial o
mágico que simplemente no puede ser explicado. De ser así, ningún computador
podría crearlo, teniendo en cuenta que para la mayoría de la gente cualquier
cosa que una máquina pueda hacer, podrá ser explicada.
Para ver qué es lo incorrecto de
esta teoría, debemos evitar una equivocación bastante extendida. No solo
debemos observar los trabajos que nuestra cultura acepta como muy buenos; antes
debemos obtener buenas impresiones acerca de cómo personas ordinarias hacen
cosas ordinarias. No podemos esperar que, de repente, averigüemos cómo los
grandes compositores escriben las grandes sinfonías. No hay una gran diferencia
entre el pensamiento ordinario y el altamente creativo. No hay que culpar a
nadie por no ser capaz de hacer todo lo que la gente creativa puede. Tampoco
por no ser capaces de explicarlo. Hay que objetar la idea de que, solo porque
no seamos capaces de explicarlo en este instante, nadie va a ser capaz de
encontrar una explicación nunca a cómo funciona la creatividad.
![]() |
Escena de la
película Yo, Robot de Alex Proyas, basada
en la serie
de relatos de Isaac Asimov.
|
Nuestra admiración por
los grandes genios como Beethoven o Einstein no debería intimidarnos. En su
lugar, debería molestarnos nuestra ignorancia en cuanto a cómo captamos las
ideas (y no solo las creativas). Estamos tan acostumbrados a las maravillas de
lo inusual que olvidamos lo poco que sabemos sobre las maravillas del
pensamiento ordinario. Quizás nuestras supersticiones sobre la creatividad
sirven a otro fin, como el proporcionarnos héroes con cualidades tan especiales
que, de alguna forma, hagan más excusables nuestras deficiencias.
¿Son los humanos conscientes de sí mismos?
La mayoría de las personas asumen
conscientes de su existencia, o conscientes de sí mismos; en todo caso podrían
simplemente simularlo. Por supuesto esto da por hecho que nosotros, como
humanos, somos conscientes de nuestra existencia, pero ¿lo somos realmente?
Si por conciencia nos referimos a
saber lo que hay en nuestras mentes entonces, como cualquier psicólogo clínico
sabe, las personas solo somos ligeramente conscientes de nosotros mismos y la
mayoría de lo que pensamos sobre nosotros son conjeturas. Tendemos a establecer
redes de teorías sobre lo que hay en nuestra mente y confundimos estas visiones
aparentes con lo que realmente está ocurriendo. Para ser francos, la mayoría de
cosas que nuestro conocimiento nos revela son “invenciones”. Ahora bien, no es que
no seamos conscientes de lo que vemos u oímos, o incluso de algunas partes del
pensamiento. Solo que no somos conscientes de las muchas cosas que ocurren en
nuestra mente.
Cuando las personas hablamos u
observamos, la parte física es bastante clara, todos somos capaces de
comprender el funcionamiento de estos procesos. Pero sigue habiendo un problema
complicado. ¿Qué entidad o mecanismo sigue a partir de ahí? Estamos
acostumbrados a decir simplemente que es el “yo”. ¿Cuál es el problema con esa
idea? Nuestro concepto estándar del yo es
que en las profundidades de cada mente un yo
central, especial, que hace el verdadero trabajo mental por nosotros; un
pequeño individuo en las profundidades de nuestra mente que escucha, ve y
entiende lo que está ocurriendo en cada momento. Marvin Minsky llamó a esto la
teoría del “Agente Solitario”. No es difícil ver por qué todas las culturas se
apegan a esta idea. No importa lo ridículo que pueda parecer científicamente,
esta idea subyace a todos los principios de la ley, el trabajo y la moral. Sin
esto, todos nuestros cánones de responsabilidad se desbaratarían, para bien o
para mal. Sin este mito, ¿de qué serviría el resolver problemas? ¿Cómo
podríamos tener sociedades como las conocidas hasta ahora?
El problema es que no podemos
construir buenas teorías sobre la mente de esta manera. El cualquier campo,
como científicos que somos estamos siempre forzados a reconocer que lo que
vemos de forma individual, como las piedras, las nubes o incluso las mentes,
deben ser descritas a veces como parte de un todo formado por otro conjunto de
cosas. Tenemos que entender que el yo,
por sí mismo, no es una sola cosa.
Computadores conscientes de sí mismos.
La gente suele pensar que no es posible
programar un computador para que sea consciente de sí mismo, pero ¿y si
dijéramos que las máquinas son capaces, en principio, de tener una mayor y
mejor consciencia de la que tienen las personas?
Esto podría hacerse dotando a las
máquinas de modos de examinar sus propios mecanismos mientras trabajan. En
principio, al menos, esto parece posible; de hecho ya tenemos algunos programas
simples de IA que pueden entender un poco el funcionamiento de programas más
sencillos. El problema es que todavía sabemos muy poco como para hacer
programas con suficiente sentido común como para entender cómo funcionan los
programas de solución de errores en IA actuales. Pero una vez que aprendamos a
construir máquinas lo suficientemente inteligentes como para entender estas
cosas, no tiene por qué haber ningún problema en darles la autocomprensión que
necesitarían para entenderse, modificarse y mejorarse a sí mismas.
Aun tiene que pasar mucho tiempo hasta
que aprendamos lo suficiente sobre el razonamiento desde el sentido común para
hacer máquinas tan inteligentes como lo son las personas. Hoy en día sabemos
bastante sobre la creación de sistemas expertos útiles y especializados, pero
aún no sabemos cómo hacerlos capaces de mejorarse a sí mismos de forma
interesante. Aún así, cuando respondamos a esas preguntas, tendremos que
afrontar una incluso más extraña. Cuando aprendamos el cómo, ¿deberíamos construir máquinas que pudiesen
ser de alguna forma “mejores” que nosotros mismos? Tenemos suerte de poder
dejar esa elección a futuras generaciones.
Así como la evolución cambió la
visión que el ser humano tenía de la vida, la Inteligencia Artificial cambiará
la visión de nuestras mentes sobre la Mente en sí. Conforme encontremos formas
de hacer que las máquinas se comporten de forma más sensible, iremos
aprendiendo más sobre nuestros procesos mentales. Encontraremos nuevas formas
de pensar en el pensamiento y en
los sentimientos.
Nuestra visión de ellos pasará de misterios opacos a redes de representación y
uso de ideas complejas, pero comprensibles. Entonces esas ideas, sucesivamente,
llevarán a nuevas máquinas, y éstas nos llevaran a nuevas ideas. Nadie puede
saber a dónde nos conducirá todo esto, pero una cosa es segura: hoy en día, no
tiene sentido la necesidad de buscar diferencias básicas entre la mente de los
humanos y las posibles mentes de las máquinas.
Enlaces de Interés.
Traducción de la entrevista que Jeremy Bernstein hizo con Marvin Minsky a propósito de la creación de la SNARC - The New Yorker, Dic 14, 1981. Pag 69.https://www.dropbox.com/s/47u1n8kc6zcr1nv/entrevista%20Jeremy%20Bernstein%20con%20Marvin%20Minsky%20.pd
Página personal de Marvin Minksy.
Software de simulación de redes neuronales.
SNNS (Stuttgart Neural Network
Simulator).
Es un simulador de software de redes neuronales para estaciones de
trabajo Unix, desarrollado por el Instituto de Sistemas Paralelos y
Distribuidos de Alto Rendimiento (IPVR) de la Universidad de Stuttgart.
El objetivo del proyecto SNNS es
crear un entorno de simulación eficiente y flexible para la investigación y
aplicación de las redes neuronales.
FANN Fast Artificial Neural
Network Library (librería rápida de redes neuronales/neurales artificiales).
Es
una librería de redes neuronales gratuita y de código abierto, la cual
implementa redes neurales artificiales de múltiples capas en C con soporte para
redes tanto completamente como escasamente conectadas. Es compatible con una
ejecución multiplataforma tanto en punto fijo como flotante.
Incluye un marco de trabajo para
manejar los datos con facilidad. Es fácil de usar, versátil, bien documentado y
rápido. Pone a disposición del usuario más de 20 lenguajes de programación.
Bibliografía.
Wikipedia:
la enciclopedia libre, Marvin Minsky, http://es.wikipedia.org/wiki/Marvin_Minsky
(04-2014)
CyberneticZoo,
1951
– SNARC Maze Solver – Minsky / Edmonds (American), http://cyberneticzoo.com/mazesolvers/1951-maze-solver-minsky-edmonds-american/ (04-2014)
Michael B. Farrell. The Boston Globe,
MIT artificial intelligence, robotics
pioneer feted, http://www.bostonglobe.com/business/2014/01/15/mit-professor-marvin-minsky-wins-award/aSiCSHIjlGycOGYmeLSZ5L/story.html (04-2014)
Stefanie Chiou, Craig Music, Kara Sprague, Rebekah
Wahba. Bret Victor, beast of burden, A
Marriage of Convenience: The founding of the MIT artificial Intelligence
laboratory, http://worrydream.com/refs/FoundingOfTheAILab.pdf (04-2014)
Patrick
Henry Winston. A. M. Turing Award, Marvin
Minsky, http://amturing.acm.org/award_winners/minsky_7440781.cfm (04-2014)
David Arroyo Menéndez. David Arroyo Menéndez, Aplicaciones Prácticas de la Inteligencia
Artificial, http://www.davidam.com/docu/aplic-ia/neuronal.html
(04-2014)
Sociedad Andaluza de Educación
Matemática Thales, Introducción a la
computación neuronal, http://thales.cica.es/rd/Recursos/rd98/TecInfo/07/capitulo1.html
(04-2014)
Edgard Iván Benítez Guerrero. Universidad Veracruzana, IA: Conocimiento y razonamiento. 4. Otras representaciones
de conocimiento, http://www.uv.mx/personal/edbenitez/files/2010/11/CursoIA10-III-4.pdf
(05-2014)
Hilera J. R., Martínez V. J. (1995).
Redes Neuronales Artificiales:
Fundamentos, modelos y aplicaciones. Ra-ma.
S. Russel (1996). Inteligencia Artificial: un enfoque moderno.
Prentice Hall.
Manuel de la Herrán Gascón (2005).
Arena Sensible, REDcientífica.
Damián Jorge Matich. Facultad Regional Rosario: universidad
tecnológica nacional, Redes neuronales:
Conceptos básicos y aplicaciones, http://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/orientadora1/monograias/matich-redesneuronales.pdf
(04-2014)
Henry Mancheno. Slideshare, Redes Neuronales, http://www.slideshare.net/HB09/redes-neuronales-1514651 (04-2014)
Marvin L. Minsky (1982). Why people think computers can’t, AI
Magazine, 3(4).
Marvin L. Minsky (1991). Conscious Machines, Machinery of Consciousness.
Marvin L. Minsky (1994). Will Robots Inherit
the Earth?, Scientific American.
No hay comentarios:
Publicar un comentario