Elizabeth y John Gould
InicioBlogInteligencia artificialFuture States

Future States

La visión de Laplace

Parecerá que dado el estado inicial de la máquina y las señales de entrada, siempre es posible predecir todos los estados futuros (Future States). Esto recuerda a la visión de Laplace de que a partir del estado completo del universo en un momento dado, descrito por las posiciones y velocidades de todas las partículas, debería ser posible predecir todos los estados futuros. Sin embargo, la predicción que estamos considerando está mucho más cerca de ser práctica que la considerada por Laplace. El sistema del «universo en su totalidad» es tal que pequeños errores en las condiciones iniciales pueden tener un efecto abrumador más tarde. El desplazamiento de un solo electrón por milmillonésima de centímetro en un momento podría marcar la diferencia entre que un hombre sea asesinado por una avalancha un año después o escape. Es una propiedad esencial de los sistemas mecánicos que hemos llamado «máquinas de estado discreto» que este fenómeno no ocurra. Incluso cuando consideramos las máquinas físicas reales en lugar de las máquinas idealizadas, un conocimiento razonablemente preciso del estado en un momento produce un conocimiento razonablemente preciso en cualquier número de pasos posteriores.

¿Por qué Laplace y no Einstein?

Hay varios resultados de la lógica matemática que se pueden utilizar para demostrar que hay limitaciones en los poderes de las máquinas de estado discreto y su capacidad para determinar sus Future States. El más conocido de estos resultados es el teorema de Gödel (1931), que muestra que en cualquier sistema lógico lo suficientemente poderoso se pueden formular declaraciones que ni pueden ser demostradas ni refutadas dentro del sistema, a menos que posiblemente el sistema mismo sea inconsistente.

Turing

Hay otros resultados similares en algunos aspectos, debido a Church (1936), Kleene (1935), Rosser y Turing (1937). Este último resultado es el más conveniente para considerar, ya que se refiere directamente a las máquinas, mientras que los otros solo se pueden utilizar en un argumento comparativamente indirecto. Si se va a utilizar el teorema de Gödel, necesitamos además algún medio para describir sistemas lógicos en términos de máquinas y máquinas en términos de sistemas lógicos. El resultado en cuestión se refiere a un tipo de máquina que es esencialmente una computadora digital con capacidad infinita. Afirma que hay ciertas cosas que tal máquina no puede hacer y por lo tanto sus Future States no son predeterminados. Si está configurada para dar respuestas a preguntas como en el juego de la imitación, habrá algunas preguntas a las que dará una respuesta incorrecta o no dará respuesta en absoluto, por mucho tiempo que se permita para una respuesta.

Un conjunto de reglas

No es posible producir un conjunto de reglas que pretenda describir lo que un hombre debe hacer en todas las circunstancias concebibles. Podría haber, por ejemplo, una regla que diga que uno debe detenerse cuando ve una luz roja de tráfico y avanzar si ve una verde, pero ¿qué pasa si ambas aparecen juntas por algún defecto? Tal vez decida que es más seguro detenerse. Pero alguna otra dificultad podría surgir más tarde de esta decisión.

Se argumenta a partir de esto que no podemos ser máquinas. Trataré de reproducir el argumento, pero temo que apenas le haga justicia. Parece ir algo así: «Si cada hombre tuviera un conjunto definido de reglas de conducta con las que regulara su vida, no sería mejor que una máquina. Pero no hay tales reglas, así que los hombres no pueden ser máquinas».

«Si cada hombre tuviera un conjunto definido de reglas», ¿el punto sería más bien considerar que cada hombre tiene un conjunto de «relaciones o asociaciones acertadas»?

Códigos de encriptación

¿Y si en lugar de «Rendimiento» o «conjunto de reglas de un idioma», o de Gramáticas generativas, todos los idiomas fueran un mismo idioma con diferentes códigos de encriptación?

Es necesario, por lo tanto, tener algunos otros canales de comunicación «desapasionados». Si estos están disponibles, es posible enseñar a una máquina mediante castigos y recompensas a obedecer órdenes dadas en algún idioma, por ejemplo, un idioma simbólico. Estas órdenes se transmitirán a través de los canales «desapasionados». El uso de este idioma reducirá en gran medida el número de castigos y recompensas requeridos.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *