La Inteligencia Artificial
surge definitivamente a partir de algunos trabajos publicados en la
década de 1940 que no tuvieron gran repercusión, pero a partir del
influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información.
Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
Punto de inflexión de la disciplina
En su histórico artículo de 1950, Turing propuso que la pregunta
«¿puede pensar una máquina?» era demasiado filosófica para tener valor
y, para hacerlo más concreto, propuso un «juego de imitación». En la
prueba de Turing intervienen dos personas y una computadora. Una
persona, el interrogador, se sienta en una sala y teclea preguntas en la
terminal
de una computadora. Cuando aparecen las respuestas en la terminal, el
interrogador intenta determinar si fueron hechas por otra persona o por
una computadora. Si actúa de manera inteligente, según Turing es
inteligente. Turing, señaló que una máquina podría fracasar y aún ser
inteligente. Aun así creía que las máquinas podrían superar la prueba a
finales del siglo XX.De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia artificial como una imitación del comportamiento humano no fue tan práctico a lo largo del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde luego, el enfoque del comportamiento humano y el del pensamiento humano siguen siendo estudiados por las ciencias cognitivas y continúan aportando interesantes resultados a la Inteligencia Artificial, y viceversa.
Véase también: Prueba de Turing
Disciplinas sobre las que se apoya
La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los avances en electrónica que permitieron la construcción de los primeros computadores en 1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la lingüística. La lógica matemática ha continuando siendo un área muy activa en la inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas lógicos deductivos.Orígenes y Evolución Cronológica
Los juegos matemáticos antiguos, como el de las Torres de Hanói (hacia el 3000 a. C.), muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles.Cerca de 300 a. C., Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas.
En 250 a. C. Ctesibio de Alejandría construyó la primera máquina autocontrolada, un regulardor del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento.
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.
En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la teoría de la computabilidad.
En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de programación de alto nivel Plankalkül. Las siguientes máquinas más potentes, aunque con igual concepto, fueron la ABC y ENIAC.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término.
No hay comentarios:
Publicar un comentario