- John McCarthy
Nace el 4 de septiembre de 1927 en Boston
(Massachusetts).
En
1948 el joven McCarthy se licenció en Matemáticas en el Instituto de Tecnología
de California, doctorándose en la misma disciplina en 1951, en la Universidad
de Princeton. Tras cortas estancias en Princeton, Stanford, Dartmouth, y el
MIT, pasó a ser profesor a tiempo completo en la Universidad de Stanford en
1962, en la que permaneció como docente e investigador hasta su retiro a
finales del 2000. Tras su jubilación fue nombrado Profesor Emérito de dicha
universidad.
De hecho fue John McCarthy quién sugirió el nombre de Inteligencia Artificial en la conferencia de Dartmouth.
McCarthy
inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones
del ACM en 1960.
En
1957, John McCarthy fundó, junto con Marvin Minsky, el Laboratorio de
Inteligencia Artificial del MIT, y ayudó a motivar la creación del Proyecto
MAC. En 1962 se marchó de él, y se fue a la Universidad de Stanford, en la que,
en 1963, fundó también el respectivo Laboratorio de IA, que durante muchos años
fue un rival amistoso del Proyecto MAC.
En
1961 fue el primero en sugerir públicamente (en un discurso para celebrar el
centenario del MIT) que la tecnología de tiempo compartido de las computadoras.
Podría conducir a un futuro en el que el poder del cómputo e incluso
aplicaciones específicas podrían ser vendidas como un servicio (como el agua o
la electricidad).
Además
del Premio Turing, McCarthy recibió otras varias distinciones, y fue miembro de
distintas academias. En 2010 ingresó en el llamado "IEEE Intelligent
Systems Hall of Fame".
- Marvin Minsky
Nació en la cuidad de New York el 9 de agosto de 1927. Científico estadounidense considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Masschusetts o MIT.
En
la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación
y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).
Minsky ha contribuido en el
desarrollo de la descripción gráfica simbólica, geometría computacional,
representación del conocimiento, semántica computacional, percepción mecánica,
aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador
de redes neuronales.
Escribió el libro
"Perceptrones" (con Seymour Papert), que se convirtió en el trabajo
fundacional en el análisis de redes neuronales artificiales. Su crítica de la
investigación poco rigurosa en el campo ha sido indicada como responsable de la
desaparición virtual de la investigación académica en redes neuronales
artificiales durante los años 70.
- Nathaniel Rochester
Nació
el 14 de febrero de 1919. Planeo, diseño y construyó para IBM EL 701 junto con
otros colaboradores.
Escribió
el primer lenguaje de programación de a bajo nivel y participo en la fundación
del el campo de la Inteligencia Artificial.
En
1952 se presenta la IBM 701, computadora que abandonaba la electromecánica a
favor de las válvulas de vacío.
- Claude Shannon
Nació
en Michigan el 30 de abril de 1916 y muere el 24 de febrero de 2001, fue un
ingeniero electrónico y matemático estadounidense, es considerad como “El padre
de la teoría de la información”, desarrolló
la entropía de la información.
En
1932 ingresó en la Universidad de Míchigan, donde su hermana Catherine se
doctoró como matemática. En 1936 obtuvo los títulos de ingeniero electricista y
matemático. Su interés por la matemática y la ingeniería continuó durante toda
su vida.
En
1936 aceptó el puesto de asistente de investigación en el departamento de
ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT). Su
situación le permitió continuar estudiando mientras trabajaba por horas para el
departamento, donde trabajó en el computador analógico más avanzado de esa era,
el Differential Analyzer de Vannevar Bush.
En
su tesis doctoral en el MIT; demostró cómo el álgebra booleana se podía
utilizar en el análisis y la síntesis de la conmutación y de los circuitos
digitales. La tesis despertó un interés considerable cuando apareció en 1938 en
las publicaciones especializadas.
En
1940 estudió un master en ingeniería eléctrica y se doctoró en filosofía
matemática.
Shannon
pasó quince años en los laboratorios Bell, una asociación muy fructífera con
muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter
Houser Brattain, John Bardeen y William Bradford Shockley, inventores del
transistor; George Stibitz, quien construyó computadoras basadas en
relevadores; Warren Weaver, quien escribió una extensa y aclaradora
introducción a su obra La teoría matemática de la comunicación y muchos otros más.
Durante
este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo
referente a la teoría de la información, un desarrollo que fue publicado en
1948 bajo el nombre de "Una Teoría Matemática de la Comunicación".
En
el área de las computadoras y de la inteligencia artificial, publicó en 1950 un
trabajo que describía la programación de una computadora para jugar al ajedrez,
convirtiéndose en la base de posteriores desarrollos.
A
lo largo de su vida recibió numerosas condecoraciones y reconocimientos de
universidades e instituciones de todo el mundo.
Ante
la pregunta de un periodista de si las máquinas podían pensar, replicó: «
¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!».
No hay comentarios:
Publicar un comentario