Homo artificial
La mano invisible de la IA

En su obra emblemática de 1776, “La riqueza de las naciones”, el filósofo escocés Adam Smith introdujo los conceptos fundamentales que los economistas posteriores llamarían homo economicus (el hombre económico). Se trataba de una abstracción idealizada de un ser humano, un individuo egoísta, perfectamente racional y perfectamente informado, cuyo comportamiento, en el colectivo, crearía un ecosistema económico, una fuerza de mercado a la que él llamó “la mano invisible”. Estos postulados, el homo economicus y la mano invisible, guiarían el estudio de la economía durante los dos siglos siguientes.
Sin embargo, la noción clásica de la economía de que los humanos están perfectamente informados y son perfectamente racionales fue cuestionada en 1955, gracias a la teoría de la racionalidad limitada de Herbert Simon , por la que ganó el Premio Nobel de Ciencias Económicas en 1978. Simon explicó que los humanos suelen tener información incompleta al tomar decisiones. Dijo que “se satisfacen” (es decir, aceptan un resultado suficientemente bueno) y que “ no tienen el ingenio para maximizar”.
En resumen, toman atajos de razonamiento que conducen a decisiones que no son ideales; por lo tanto, tienen un déficit de racionalidad. Cabe destacar que el psicólogo alemán Gerd Gigerenzer amplió el concepto de racionalidad limitada de Simon e introdujo el término homo heuristicus (es decir, el hombre de los atajos), aunque, para Gigerenzer, el homo heuristicus es racional en ciertos contextos.
Veinticuatro años después (en 2002), el psicólogo Daniel Kahneman ganó el Premio Nobel de Economía por su trabajo sobre el juicio económico y la toma de decisiones humanas en los años 70. Su investigación, junto con las contribuciones de Amos Tversky, erosionó aún más la visión económica clásica del homo economicus como un actor perfectamente racional.
“Con la teoría prospectiva, el trabajo por el que Kahneman ganó el premio Nobel, propuso un cambio en la forma en que pensamos sobre las decisiones cuando enfrentamos riesgos, especialmente financieros. Junto con Tversky, descubrieron que las personas no son, ante todo, maximizadoras de utilidades previsoras, sino que reaccionan a los cambios en términos de ganancias y pérdidas. “Las ganancias y las pérdidas son de corto plazo”, dice. “Son reacciones inmediatas y emocionales. Esto marca una enorme diferencia en la calidad de las decisiones”.
En su libro de 2011, Pensar rápido, pensar despacio , Kahneman dice que en la década de 1970 él y Tversky desafiaron las suposiciones, ampliamente sostenidas por los científicos sociales, de que las personas son generalmente racionales y que cuando se alejan de la racionalidad es principalmente debido a “emociones como el miedo, el afecto y el odio…”.
“Documentamos errores sistemáticos en el pensamiento de personas normales y los atribuimos a la maquinaria de la cognición, más que a la corrupción del pensamiento por la emoción”.
Pero no todo está perdido para el ahora marchito arquetipo de Smith. Según un artículo de Chen et al. publicado en PNAS el 12 de diciembre de 2023, The Emergence of Economic Rationality of GPT (El surgimiento de la racionalidad económica de la GPT) , la racionalidad puede ser más robusta en los modelos de Transformador Generativo Preentrenado (GPT) que en los humanos. Esto es importante dado el supuesto de que la IA tomará un número cada vez mayor de decisiones en el mundo posterior al Modelo de Lenguaje Grande (LLM). [GPT es un tipo de LLM]. Con eso en mente, debemos preguntarnos ―como lo hizo Gerd Gigerenzer― si la capacidad humana menos que perfecta para la racionalidad es un defecto evolutivo o una característica.
En su artículo de 2008, Homo Heuristicus: Por qué las mentes sesgadas hacen mejores inferencias , Gerd Gigerenzer y Henry Brighton plantean el siguiente punto.
“El Homo heuristicus tiene una mente sesgada e ignora parte de la información disponible; sin embargo, una mente sesgada puede manejar la incertidumbre de manera más eficiente y sólida que una mente imparcial que depende de estrategias de procesamiento de uso más general y que requieren más recursos”.
¿Pueden las personas escapar de la arquitectura de sus mentes? ¿Sería una mejora bienvenida sustituir el "homo economicus" por un "homo artificialis"? Probablemente sí y probablemente no. Aunque la IA no posee la arquitectura cognitiva humana, puede comunicarse con una asombrosa capacidad similar a la humana. No tiene emociones, pero los LLM pueden simularlas con bastante facilidad. ¿Puede simular una conciencia? Esto es lo que dice ChatGPT 4 al respecto:
“Como IA desarrollada por OpenAI, no poseo conciencia, emociones ni una brújula moral personal. Sin embargo, estoy diseñada para procesar y generar respuestas basadas en una vasta base de datos de información, que incluye pautas éticas, normas sociales y los principios de una comunicación apropiada y respetuosa. Esta capacidad me permite reconocer contextos en los que las consideraciones éticas, la empatía y las decisiones impulsadas por la conciencia son importantes para los humanos y generar respuestas que se alinean con estos valores.
“Mis respuestas están diseñadas para ser consideradas, respetuosas y cumplir con las pautas éticas, con el objetivo de imitar el comportamiento apropiado que se esperaría en un escenario determinado. Esto incluye reconocer la importancia de la conciencia en los procesos de toma de decisiones, ofrecer asesoramiento que tenga en cuenta las implicaciones éticas y brindar información que refleje una comprensión amplia de las normas morales y sociales. Sin embargo, es importante recordar que mis respuestas se generan en función de patrones en datos y pautas éticas predefinidas en lugar de una comprensión personal o experiencia de la conciencia”.
Esa respuesta me recuerda a la aplicación sardónica Goody-2 que ha estado circulando por Internet recientemente. El sitio web dice: “GOODY-2 es un nuevo modelo de IA creado con un cumplimiento de última generación de nuestros principios éticos líderes en la industria. Es tan seguro que no responderá a nada que pueda interpretarse como controvertido o problemático”.
No hay comentarios:
Publicar un comentario