Ideal

Ideal

Además de traer la primavera a principios de cada año, el calentamiento global también parece llevar a la temporada tonta hacia adelante. Recientemente leí informes de dos organismos de investigación patrocinados por el gobierno que eran más divertidos que cualquier cosa actualmente en la televisión, lo cual no es difícil de lograr. Uno era un documento de defensa estratégico que teme un renacimiento marxista entre las clases medias oprimidas, mientras que el otro predijo que "se pueden hacer llamadas para que los derechos humanos se extiendan a los robots".

Este asunto va mucho más allá de la inteligencia informática y en la cuestión de la animación misma. No otorgamos derechos a objetos inanimados como espadas, sillas o incluso automóviles, y si hiciéramos su utilidad se reduciría severamente ("no tengo ganas de comenzar esta mañana"). Eso cambia la pregunta a lo que hace que una cosa se anime, y mi definición sería que debe tener intereses defendibles, el principal de los cuales siempre es sobrevivir lo suficiente como para reproducirse a sí mismo.

Puede decir qué es bueno y malo para sí mismo, y tomar la búsqueda o evitar acciones apropiadas. Incluso los organismos unicelulares pueden detectar la temperatura, la luz o la salinidad y moverse en consecuencia. He visto robots experimentales que podrían detectar su nivel de batería y buscar la toma de corriente más cercana, pero esta es un área en gran medida ignorada por los robotistas como de alguna manera frívolos. En cambio, cada vez que las personas comienzan a hablar sobre la ética del robot, invariablemente regresan a las tres leyes de robótica de Isaac Asimov: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano se dañe; Un robot debe obedecer las órdenes que les dan los seres humanos, excepto cuando tales órdenes entrarían en conflicto con la primera ley; Y, un robot debe proteger su propia existencia siempre que dicha protección no entra en conflicto con la primera o segunda ley.

Diseñados inteligentemente como estas leyes son solo reglas: interpretarlas en la vida real requeriría una inteligencia moral detrás de ellas, lo que plantea precisamente la pregunta que están destinadas a resolver. La idea de que cualquier conjunto de reglas sucintas podría otorgar la moralidad en un robot no es un comienzo: es parte de ese hiper-racionalismo que infecta a toda la informática, y que es responsable de las predicciones arrogantes sobre la inteligencia de la máquina en primer lugar. La moral humana en su nivel más alto funciona con reglas éticas, los llamamos la ley, pero esta capacidad de hacer y adherirse a las leyes se construye además de una jerarquía de sistemas de fabricación de valor legados por la evolución, y que van a la derecha. a esa célula individual con su primitiva bondad y maldad.

Mi mejor suposición es que al menos cinco niveles distinguibles de organización moral han surgido durante la evolución de las células individuales a primates superiores:

1 respuestas de "buscar o evitar" mediados químicamente, las emociones básicas de atracción y miedo.

2 Un sistema nervioso simple que mapea las partes del cuerpo de la criatura, comparando las entradas sensoriales con el modelo resultante: la criatura es "consciente" de su propio estado emocional en lo que llamamos "sentimiento".

3 Un cerebro con memoria para que los eventos puedan recordarse para referencia futura: un evento consiste en algunas entradas sensoriales más la sensación que los acompañó y también está cargado de valor, una buena o mala memoria.

4 Un cerebro que modela no solo el propio cuerpo de la criatura, sino también las mentes de otras criaturas: puede predecir el comportamiento de los demás, y la empatía se hace posible.

5 lenguaje y un cerebro de razonamiento que puede interpretar reglas abstractas, utilizando la base de datos de recuerdos cargados de valor y conocimiento de las mentes de los demás disponibles. Solo el Homo sapiens ha alcanzado este nivel.