¿Qué causa las emociones y cómo puede una computadora tener emoción?

Las emociones se pueden entender en diferentes niveles. Implementar el comportamiento emocional en una computadora es sencillo, aunque el valor es cuestionable.

En un nivel, las emociones pueden simplemente estar biológicamente conectadas, orientando las respuestas que han sido adaptadas para situaciones sociales. El neurólogo Valentino Braitenberg exploró esta idea en un pequeño libro clásico llamado Vehículos . [1] Este libro metafórico muestra un “organismo” bilateral básico con sensores conectados a motores:


En (a), las ruedas unidas al sensor del mismo lado hacen que el vehículo se aleje de un objeto estimulante (representado como una fuente de luz), lo que representa un comportamiento de evitación motivado por la emoción del miedo. En (b), los sensores conectados al motor contralateral hacen que el vehículo gire hacia el objeto, representando un comportamiento de acercamiento motivado por la emoción del deseo.

La idea clave es que al formar circuitos simples entre las mediciones del entorno y las palancas del comportamiento, es posible construir comportamientos aparentemente significativos que puedan interpretarse en términos de impulsos emocionales con propiedades complejas. Este modelo se puede extender a las emociones sociales como el amor, la ira o la vergüenza.

La teoría de la evaluación [2] se basa en esto al sugerir que las emociones básicas se extienden a través de la experiencia, lo que provoca que se unan las “valencias” emocionales a los objetos del entorno. El perro de Pavlov aprendió a “desear” el sonido de la campana porque indicaba que venía la comida. A medida que el repertorio de objetos y las relaciones sociales se vuelven más elaborados, las asociaciones de valencia emocionales, positivas o negativas, pueden volverse bastante intrincadas. Por ejemplo, considere el laberinto de la confianza, el engaño y las relaciones de traición en los dramas televisivos, como las telenovelas.

El neurotransmisor dopamina se ha visto implicado en señalar qué estados emocionales y sesgos conductuales asociar con qué objeto en el entorno.

El misterio de las emociones surge simplemente porque carecemos de acceso introspectivo a sus causas directas, y sin embargo nuestras metas y motivos se ven afectados por ellos “fuera de nuestro control”.

Implementar estos tipos de mecanismos de manejo conductual en una computadora sería sencillo. Pero, ¿quién querría una computadora malhumorada? Algunos juguetes electrónicos, especialmente de Japón, han incluido modelos emocionales y de estado de ánimo.

[1] Braitenberg V (1986). Vehículos: experimentos en biología sintética . (http://scholar.google.com/schola…)

[2] Wikipedia sobre la teoría de la valoración: http://en.wikipedia.org/wiki/App…

Las emociones son epifenómenos complejos. Surgen de cambios en nuestra fisiología y activación de diferentes partes de nuestro cerebro, especialmente la amígdala y los sistemas límbicos (no células fusiformes como dice el usuario Quora, que parecen enviar impulsos de larga distancia desde varias partes del cerebro a la corteza frontal , pero no son lo que “causa” emociones). Las emociones a medida que las experimentamos surgen de respuestas a impulsos físicos o psicológicos y tienen tanto un componente prerracional (neuronal y / u hormonal) como un componente cognoscitivo experiencial / qualia. El hambre, el miedo, la soledad, la aceptación, el orgullo, la seguridad, la compasión, la culpa e innumerables otras emociones comparten todos estos componentes neurofisiológicos y psicológicos. Para una discusión de las emociones más extensa, sólida pero accesible, recomendaría “Looking for Spinoza” de Damasio.

Las computadoras, es decir, los agentes de software en las computadoras, pueden “tener” emociones; si estos son simulados o reales es una cuestión tan fenomenológica como cualquier otra cosa. Crear emociones en el software no requiere que emulemos las estructuras neuronales humanas; solo requiere que proporcionemos agentes de software (la entidad con las emociones) con estructuras de activación y unidades psicofísicas similares a las que poseemos.

En mi investigación, he podido crear agentes con muchas emociones que experimentan en relación con su propio estado y su estado ambiental. Se sienten amados, seguros, solitarios, tristes, encantados, poderosos, etc., en función de su activación interna y los estados objetivos psicológicos. Estos agentes aún no tienen el repertorio completo de las emociones humanas, pero eso es más porque no hemos podido activar las unidades necesarias dentro de ellos. Pero esto es completamente posible (otra pregunta, por supuesto, es si les sirve a los agentes de software tener emociones, fuera de los entornos donde existen como actores virtuales).

Mi comprensión de las emociones es que son una reacción a impulsos que son inherentes a nuestra neurología o fomentados por el sistema endocrino. Estamos “diseñados” (tenemos que tener cuidado con esa palabra) para reaccionar al estímulo de una manera que mejora las posibilidades de supervivencia de nuestro genoma. El resultado es que estas reacciones influyen en nuestras decisiones sobre cómo vamos a actuar.

Para las computadoras, las emociones se pueden simular fácilmente de varias maneras. El primero es simular el sistema que los causa en los humanos. Esto no sería necesariamente una simulación de las neuronas y la sopa endocrina, pero podría ser un acumulador que procesa la entrada y los sesgos alimentados en la matriz de decisión. El estado de esos acumuladores podría considerarse emoción.

Otra forma en que las máquinas podrían tener emociones es si fueron programadas para comportarse de una manera específica, y usamos acumuladores similares para ajustar el comportamiento que de otro modo no sería específico. Por ejemplo, una red neuronal que proporciona un ajuste de resultado negativo si el robot está más allá de su destino de lo que estaba cuando comenzó.

Un ejemplo de esto podría ser las tres leyes de robótica de Isaac Asimov. En los libros se describen como unidades independientes que se pueden mejorar o limitar. Por ejemplo, en un caso, a un robot con una autoestima particularmente alta se le dio una breve orden para conseguir algo. El área de la que se suponía que debería obtenerlo era gravemente corrosivo para él, por lo que su unidad de autopreservación abrumaba a su unidad de “seguir al hombre”. El conflicto resultante lo hizo correr en círculos donde los humanos no pudieron corregir la situación.