jueves, 10 de abril de 2014

ORGANIZADORES DE LA CONFERENCIA DE DARTMOUTH


  • John McCarthy


Nace el 4 de septiembre de 1927 en Boston (Massachusetts).
En 1948 el joven McCarthy se licenció en Matemáticas en el Instituto de Tecnología de California, doctorándose en la misma disciplina en 1951, en la Universidad de Princeton. Tras cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en la Universidad de Stanford en 1962, en la que permaneció como docente e investigador hasta su retiro a finales del 2000. Tras su jubilación fue nombrado Profesor Emérito de dicha universidad.

De hecho fue John McCarthy quién sugirió el nombre de Inteligencia Artificial en la conferencia de Dartmouth.
McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones del ACM en 1960.

En 1957, John McCarthy fundó, junto con Marvin Minsky, el Laboratorio de Inteligencia Artificial del MIT, y ayudó a motivar la creación del Proyecto MAC. En 1962 se marchó de él, y se fue a la Universidad de Stanford, en la que, en 1963, fundó también el respectivo Laboratorio de IA, que durante muchos años fue un rival amistoso del Proyecto MAC.

En 1961 fue el primero en sugerir públicamente (en un discurso para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras. Podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).

Además del Premio Turing, McCarthy recibió otras varias distinciones, y fue miembro de distintas academias. En 2010 ingresó en el llamado "IEEE Intelligent Systems Hall of Fame".



  •                       Marvin Minsky




Nació en la cuidad de New York el 9 de agosto de 1927. Científico estadounidense considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Masschusetts o MIT.
En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).
Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.


  • Nathaniel Rochester



Nació el 14 de febrero de 1919. Planeo, diseño y construyó para IBM EL 701 junto con otros colaboradores.
Escribió el primer lenguaje de programación de a bajo nivel y participo en la fundación del el campo de la Inteligencia Artificial.
En 1952 se presenta la IBM 701, computadora que abandonaba la electromecánica a favor de las válvulas de vacío.



  • Claude Shannon




Nació en Michigan el 30 de abril de 1916 y muere el 24 de febrero de 2001, fue un ingeniero electrónico y matemático estadounidense, es considerad como “El padre de la teoría de la información”, desarrolló  la entropía de la información.
En 1932 ingresó en la Universidad de Míchigan, donde su hermana Catherine se doctoró como matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida.
En 1936 aceptó el puesto de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el Differential Analyzer de Vannevar Bush.
En su tesis doctoral en el MIT; demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas.
En 1940 estudió un master en ingeniería eléctrica y se doctoró en filosofía matemática.
Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores; Warren Weaver, quien escribió una extensa y aclaradora introducción a su obra La teoría matemática de la comunicación y muchos otros más.
Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática de la Comunicación".
En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.
A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo.

Ante la pregunta de un periodista de si las máquinas podían pensar, replicó: « ¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!».




No hay comentarios:

Publicar un comentario