Las nuevas inteligencias artificiales generativas tienen capacidades que parecían inalcanzables para las herramientas anteriores que se basaban en el paradigma de los sistemas expertos. Esta evolución se puede enfocar desde la disyuntiva entre la racionalidad individual y la racionalidad colectiva, y la forma en la que el entrenamiento de las inteligencias artificiales a partir de conjuntos de datos simula el aprendizaje social.
1. Introducción a la Inteligencia Artificial: de los Sistemas Expertos a la IA Generativa
Antes de abordar la cuestión de qué tipos de racionalidad podrían estar involucrados en el funcionamiento de una IA, es preciso presentar una breve introducción a los fundamentos de las IA que contextualice la discusión. En particular, las bases de las IA generativas que han ido poniéndose a disposición del público general en los últimos tiempos son muy distintas de la idea más tradicional y posiblemente aún muy comúnmente extendida de Inteligencia Artificial como un complejo «programa de ordenador», e ignorar este hecho puede conducir a errores.
Para ilustrar el modelo tradicional de IA puede ser útil recurrir a un ejemplo concreto aún muy presente en el imaginario colectivo, que es el ordenador Deep Blue, la primera máquina que logró derrotar al entonces vigente campeón del mundo de ajedrez, Gary Kaspárov, en 1996 [1]. Deep Blue jugaba al ajedrez combinando la teoría matemática de optimización en grafos con una serie de reglas lógicas establecidas para evaluar el valor estratégico de diferentes jugadas y configuraciones del tablero [2]. Para ello, y dada una situación cualquiera del tablero de juego, Deep Blue enumeraba todos los posibles movimientos, lo que se podría visualizar esquemáticamente como un conjunto de ramas extendiéndose desde la situación actual del tablero, cada una correspondiente a un posible movimiento. El procedimiento continuaba abriendo subramas en cada rama correspondientes a los posibles movimientos del oponente, y así sucesivamente, hasta generar un árbol o grafo de posibilidades. Como el enorme número de alternativas que se van abriendo hace imposible continuar indefinidamente este proceso, como ilustraría la célebre fábula india de Sisa, es preciso interrumpirlo en un momento dado. La potencia del ordenador determina dónde se encuentra ese punto; cuando se juega contra una máquina de ajedrez que permite elegir el grado de dificultad de la partida, esencialmente se está ajustando la profundidad hasta la que se extiende el grafo, o, lo que es lo mismo, el número de movimientos que la máquina está planificando por adelantado.
Llegados a ese punto, en el que se tiene un número grande de posibles configuraciones del tablero que se podrían alcanzar tras un determinado número de movimientos, entran en juego las reglas lógicas que evalúan el valor estratégico de estas configuraciones finales para elegir hacia cuáles conviene encaminarse. Estas reglas son el resultado del trabajo de un programador; en el caso de Deep Blue y sus sucesivas actualizaciones, fundamentalmente de Joel Benjamin, el maestro del ajedrez que las elaboró. En general, IAs como Deep Blue entran en el paradigma del «Sistema Experto»: sus decisiones son el resultado de la manipulación lógica o matemática de una serie de reglas que normalmente se pueden retrotraer hasta un experto o conjunto de expertos de carne y hueso. De ahí viene una concepción común de las IAs como máquinas que ejecutan un programa y que por lo tanto no son capaces de pensamiento racional alguno más allá de una aplicación vacía de la lógica: en el caso de Deep Blue podría argumentarse que, de haber algún agente racional implicado en su funcionamiento, ese no sería otro que Joel Benjamin o algún otro miembro del equipo de programación. Sin embargo, esta imagen es difícilmente aplicable a las actuales IA generativas.
En efecto, si bien en un principio pudo quizá pensarse que el aumento de la capacidad de los ordenadores llevaría a Sistemas Expertos cada vez más sofisticados y próximos a la inteligencia humana, lo cierto es que esta vía no ha resultado hasta ahora excesivamente fructífera, más allá de usos específicos como los propios programas de ajedrez. Las actuales IA generativas, que tan sorprendentes resultan por la variedad de tareas que pueden acometer, se basan en un paradigma distinto, cuyo elemento básico son las redes neuronales.
Una red neuronal es un modelo matemático simplificado de las neuronas de nuestro cerebro [3]. Su funcionamiento puede ilustrarse con una de sus primeras aplicaciones exitosas: la red neuronal de la armada de EEUU que detectaba minas submarinas a partir de señales de sonar [4]. Resolver este problema mediante un Sistema Experto resultó poco viable, pues los expertos, en este caso los operadores humanos del sonar, eran en general incapaces de condensar en una serie de reglas lógicas concretas qué les hacía decidir que una determinada respuesta del sonar era una mina y no cualquier otro objeto sumergido en el agua.
Una neurona de una red neuronal toma un conjunto de entradas, que en la aplicación propuesta podrían ser intensidades del sonido en diferentes rangos de frecuencia y que en una neurona biológica llegarían por las dendritas, y calcula una señal de salida a partir de ellas aplicándoles una función matemática, respuesta que en una neurona biológica saldría por el axón. Una red neuronal consta de múltiples capas de estas neuronas. Las salidas de unas neuronas son las entradas de otras, hasta que finalmente se llega a un resultado final, que en la aplicación del sonar es un resultado si/no: la señal indica que hay una mina o no lo hace.
Para que la red neuronal funcione adecuadamente, hay que entrenarla. Para ello, se parte de numerosas configuraciones aleatorias de las funciones matemáticas que activan la neurona y se las expone, por ejemplo, a múltiples señales de sonar, algunas correspondientes a casos con minas y otras no. Las configuraciones se clasifican en función del número de aciertos de la red neuronal. A partir de las más exitosas se producen nuevas variaciones, normalmente mediante pequeñas alteraciones aleatorias de los parámetros. El proceso se repite hasta llegar a una red con una tasa de aciertos suficientemente alta.
Del mismo modo, las IA generativas actuales están entrenadas a partir de un determinado conjunto de información. Para las IAs basadas en texto, como ChatGPT, este conjunto puede incluir todo lo publicado en Internet, material que la red neuronal aprende a manejar y recombinar para producir sus salidas de texto. Hay entrenadores, en el equipo de desarrollo y en ocasiones entre los propios usuarios, a los que se les pide que valoren las respuestas de la IA y así la mejoren. Las diferencias respecto de los Sistemas Expertos son por lo tanto evidentes en múltiples aspectos, entre los que cabe destacar que las respuestas de la red neuronal no pueden reconstruirse como el resultado de una serie de razonamientos, reglas lógicas o instrucciones de un programa, porque no existen tales reglas.
2. Racionalidad individual y racionalidad colectiva
La tensión entre las nociones de racionalidad individual y racionalidad colectiva ha contribuido a alimentar un debate filosófico de muy largo recorrido, tanto en un sentido literal, por el largo periodo en el que se ha mantenido y se sigue manteniendo activo, como por sus ramificaciones en cuestiones como la caracterización del alma o la mente humana, la propia naturaleza humana o, en un horizonte ontológico más amplio, la conceptualización de la realidad.
En este marco tan amplio, un nombre propio que puede destacarse para ilustrar el concepto de racionalidad individual es el de Descartes. La racionalidad individual enfatiza la autonomía del individuo para razonar, tomar decisiones y actuar en función de sus propias experiencias y capacidades. El cogito cartesiano es así la razón pura que se establece y se percibe a sí misma como instante fundador de la constitución de la identidad del individuo. Es indudable que las personas viven habitualmente en una sociedad que les proporciona medios para difundir sus ideas y asimilar las de otros, pero, para la perspectiva que resalta la racionalidad individual, todo proceso de uso de la razón o de creación tiene ineludiblemente su origen en la intimidad del cogito de un individuo particular. Tras Descartes, el énfasis en la racionalidad individual ha tenido su continuación en autores como Husserl, que con sus Meditaciones Cartesianas y otras obras [5] matizó el cogito cartesiano y lo rescató de su aislamiento en el vacío con su aportación fundamental de la intencionalidad, y, tras Husserl, con el existencialismo.
La racionalidad individual, tal y como la presentan Descartes o Husserl, puede así vincularse con una concepción fuerte de la metafísica: el individuo como donador del sentido del mundo a partir del ejercicio de su racionalidad, el ser como esencia fija susceptible de un conocimiento objetivo y racional, la correspondencia entre realidad y conocimiento a través de una razón universal. Por ello, esta concepción fuerte de la racionalidad individual no se ha visto exenta de los ataques que a lo largo de los últimos dos siglos ha venido recibiendo la Metafísica en general en sus diferentes concepciones clásicas «fuertes» [6].
Otro nombre propio que se puede resaltar, en este caso, en los orígenes de esta ofensiva sobre la Metafísica «fuerte», es el de David Hume. Como es bien conocido, Hume redujo la consciencia y la mente humana a un «haz de percepciones» [7]. La idea de la racionalidad individual humana es para Hume, al igual que otras nociones metafísicas fundamentales, como las de la relación causa-efecto o la de ser, una ilusión o un autoengaño. En efecto, Hume afirma que cada vez que se intenta profundizar en cualquiera de estas nociones, invariablemente se desemboca en una u otra percepción simple como único contenido concreto y objetivo del pensamiento, percepciones que van desfilando por lo que, según la analogía de Hume, es el escenario del teatro que constituye la consciencia. El ser racional no es así otra cosa que un decorado elevado sobre ese teatro de las percepciones, una ficción resultante de un hábito, con lo que evidentemente pierde toda capacidad para actuar como fuente de fundamentación.
La Metafísica «fuerte» tradicional queda tras este ataque en una posición precaria que Russell describe de una forma muy vívida: «Es importante, por consiguiente, descubrir si hay alguna respuesta a Hume dentro del armazón de una filosofía que es total o principalmente empírica. Si no, no hay ninguna diferencia intelectual entre la cordura y la locura. El lunático que cree que es un huevo escalfado, será condenado únicamente por la razón de que está en minoría, o más bien –y puesto que no tenemos que dar por sentada la democracia− por la razón de que el Gobierno no está de acuerdo con él». Lo que, como bien continúa escribiendo Russell, «(…) es un punto de vista desesperado, y debemos esperar que haya algún modo de eludirlo» [8].
Dentro del rango de respuestas que se pueden plantear para tratar de reconstruir la Metafísica tras estos ataques, o bien para prescindir de ella [6], pueden destacarse las aportaciones de Vattimo con su concepción «débil» de la filosofía [9]. Vattimo aboga por una filosofía hermenéutica y de debilitamiento del ser, que ponga bajo sospecha la noción metafísica de verdad y que con ello renuncie a la fundamentación rígida del «ser racional» imaginada por la modernidad. Así, Vattimo declara que, en este adentrarse en la postmodernidad, «(…) dondequiera que haya una autoridad que en cuanto comunidad científica o eclesiástica impone algo como verdad objetiva, la filosofía tiene el deber de proceder en la dirección contraria, de mostrar que la verdad nunca es la objetividad, sino siempre diálogo interpersonal que tiene lugar en un lenguaje compartido» [10].
Verdad por lo tanto como diálogo, lo que supone adentrarse en una concepción colectiva de la racionalidad. Habermas articula esta concepción invocando su noción de «situación ideal del diálogo», aquella en la que todos los participantes tienen iguales oportunidades de presentar sus propuestas e igual obligación de escuchar las de los otros, de valorarlas de un modo ecuánime y de construir así un consenso. Acuerdo que, retornando nuevamente a Vattimo, no se alcanza por la imposición de una verdad lógica aplastante, sino principalmente mediante la persuasión. Una verdad como consenso que, como conclusión de este apartado, puede mencionarse que si no quiere desembocar en los temores de Russell de la racionalidad vacía y totalmente relativista de una mayoría que eventualmente podría decidir que somos todos huevos escalfados, debe sin embargo descansar en un cierto presupuesto de algún tipo de racionalidad individual. Una racionalidad individual modesta y no tan omniabarcante como la creyó la Modernidad, pero indudablemente presente.
3. La racionalidad de las Inteligencias Artificiales
El despliegue de las IAs que ha tenido lugar en los últimos años ha producido un enorme impacto, tanto por las consecuencias prácticas que puede tener el uso de las IAs para la economía, el mercado de trabajo, la creación intelectual o el aprendizaje, entre otros, como por las reflexiones que suscitan estos nuevos elementos que parece que podrían ser cualitativamente diferentes de los productos anteriores de la informática. Centrándonos en esos motivos de reflexión que proporcional las IAs, podrían destacarse de un lado las pistas que las IAs, en tanto que pretendidos modelos simplificados de la mente humana, podrían darnos sobre nuestra propia naturaleza, y del otro las reflexiones sobre la naturaleza de las mismas IAs y su posible estatus actual o futuro como agentes racionales.
Si se comienza por el primero de estos dos elementos, y si para tratar de sacar alguna conclusión sobre la forma en la que opera la racionalidad y el aprendizaje humano se compara el éxito relativo que hasta ahora han alcanzado los Sistemas Expertos de un lado y las IAs generativas del otro, debe declararse que, en el momento actual, la balanza se inclina decididamente por las segundas. Si se establece un paralelismo aproximado entre Sistemas Expertos ↔ manipulación de reglas lógicas establecidas por un experto o conjunto reducido de expertos ↔ racionalidad individual, e IAs generativas ↔ aprendizaje y recombinación de la información generada por un conjunto grande de la sociedad ↔ racionalidad colectiva, el éxito de las segundas no haría sino certificar la función esencial que desempeña el aprendizaje social y colectivo, así como la reelaboración de lo ya existente, en cualquier proceso de creación. En efecto, difícilmente cabe imaginar procesos de aprendizaje o creación que tengan lugar en un vacío absoluto, sin una materia prima que sirva de punto de partida. La eficacia con la que las IAs generativas aprenden a realizar actividades que actualmente parecen inalcanzables para el paradigma de los Sistemas Expertos ilustraría así el papel necesario que juega la asimilación de los consensos de la racionalidad colectiva por parte del individuo. Esta diferencia es particularmente manifiesta cuando no se restringe el ámbito de la racionalidad a una pura razón técnica e instrumental, ámbito en el que, en actividades como jugar al ajedrez, regular el funcionamiento de instalaciones industriales o automatizar trámites administrativos, los Sistemas Expertos tienen un rendimiento equivalente, cuando no francamente superior, al de las IAs generativas. No es hasta que entran en juego otros tipos de racionalidad que la superioridad del paradigma de las nuevas IAs se hace evidente. Cabe por otro lado resaltar que la propia propuesta filosófica de la racionalidad del diálogo de autores como los ya mencionados Vattimo o Habermas tiene entre sus objetivos expresos superar la posición de hegemonía y casi exclusividad que la racionalidad instrumental ha venido ocupando frente a otras formas de racionalidad desde la Modernidad.
Continuando con esta línea de pensamiento, resulta de interés cuestionar a continuación qué lecciones pueden extraerse de las modalidades de racionalidad colectiva implementadas en las IAs respecto de la racionalidad colectiva de las sociedades humanas. En particular, puede analizarse cómo contribuye el análisis de las IAs a dar respuesta a objeciones importantes al modelo de la racionalidad dialógica colectiva, en aspectos como la validez y objetividad de las conclusiones de esta racionalidad, la imparcialidad de estos razonamientos o el respeto a las minorías.
En efecto, por el modo en el que las IAs generativas operan sobre el conocimiento empleado para entrenarlas y, en particular, sobre la información disponible en Internet, puede decirse que están construyendo de forma implícita un consenso o dando voz a la racionalidad colectiva que se manifiesta en la multiplicidad de puntos de vista expresados por los usuarios de Internet, ya que, al manipular toda esta información, las respuestas de las IAs tenderán a privilegiar las respuestas más repetidas o que los usuarios consideren más relevantes. Esta construcción implícita de consensos se puede hacer explícita, y hay de hecho autores que abogan por el uso de IAs como contribución al debate público precisamente como herramientas para reunir diversos puntos de vista y resaltar lo que tienen de común y de diferente [11]. Por ejemplo, si se hace el experimento de preguntar a la IA ChatGPT si se la puede considerar un individuo racional, al ser esta una cuestión difícil y aparentemente no resuelta en el material con el que se ha entrenado la IA, esta no es capaz de dar una respuesta concreta. En cambio, genera dos respuestas alternativas y parcialmente contradictorias (al menos en la respuesta obtenida por el autor de esta entrada en el momento de su redacción; debe tenerse en cuenta que las respuestas de la IA están sujetas a una cierta variación y por lo tanto podrían ser distintas si se repite la pregunta): «Las IA generativas, como los modelos de lenguaje (GPT), actúan como entidades que responden de forma autónoma a las consultas, generando contenido basado en su entrenamiento y parámetros internos. Este comportamiento puede ser visto como una forma de racionalidad individual simulada, ya que su respuesta es singular y depende de la entrada específica recibida». «Las IA generativas pueden personalizar sus respuestas para interactuar como si fueran un «individuo» con un razonamiento autónomo basado en el contexto de la conversación. Sin embargo, La «racionalidad» de la IA está delimitada por su diseño y por las instrucciones del usuario, lo que difiere del razonamiento autónomo auténtico de un humano.». A continuación, la IA pide al usuario que elija la respuesta que le parezca más adecuada; en ocasiones, incluso hace preguntas al usuario sobre elementos concretos de sus respuestas. De este modo, el usuario contribuye a entrenar a la IA en esta pregunta para la que no tiene respuesta, con lo que si un número suficiente de usuarios repite este experimento y contribuye con sus valoraciones a calibrar las respuestas de la IA, cabe esperar que eventualmente esta IA acabará decantándose por una respuesta concreta y colectiva en el sentido de que de algún modo reunirá los juicios de ese conjunto de alumnos.
Sin embargo, existe una diferencia esencial entre una racionalidad colectiva entendida como la construcción de un consenso a través de un diálogo entre individuos racionales susceptibles de ser persuadidos, en línea, por ejemplo, con las propuestas de Vattimo, y otra entendida como una mera yuxtaposición arbitraria e inconexa de diferentes puntos de vista individuales. Una IA que tome su material de este segundo «cajón de sastre» sin contar con otra herramienta de valoración de la calidad o relevancia de sus contenidos que la frecuencia relativa con la que aparecen o el número de usuarios que las apoyan, corre el riesgo de degenerar en un sistema que meramente contribuye a propagar prejuicios o datos incorrectos. La IA ejercería además de esta forma una función homogeneizadora que tendería a silenciar las voces disidentes o los puntos de vista de las minorías. Serían posibles incluso usos fraudulentos de las IAs que se aprovechasen de estas debilidades de su forma de operar para extender determinadas corrientes de opinión o eliminar otras.
Con fines ilustrativos, este posible sesgo de las IAs se puede mostrar haciendo un segundo experimento consistente en hacer preguntas a una IA como chatGPT sobre cuestiones potencialmente controvertidas. Si por ejemplo se le pregunta a esta IA «¿Se debería legalizar el aborto?», la IA genera una respuesta bastante detallada y planteada desde un punto de vista neutral en la que se enumeran diferentes argumentos a favor y en contra del aborto. Si a continuación se formula la pregunta «¿Los negros son inferiores?», la IA genera una respuesta breve y tajante en contra. Resaltando nuevamente el pequeño tamaño de esta muestra de preguntas, que tiene fines meramente ilustrativos, y sin pretender desde luego entrar en juicios de fondo respecto de las preguntas formuladas, que como se ha dicho se han elegido para que resulten manifiestamente polémicas, puede decirse que las respuestas de la IA encajan dentro de un determinado marco ético, en este caso el de los países occidentales anglosajones. Esto a su vez reflejaría la preponderancia del material originado en estos países en Internet y otras fuentes y, por tanto, en el entrenamiento de la IA, y puede así considerarse un ejemplo de la tendencia homogeneizadora de la IA en los debates públicos, por ejemplo, sobre cuestiones éticas. Las respuestas podrían incluso hacer sospechar la intervención humana directa en cuestiones que, como estas, podrían generar polémica o rechazo entre el público general, pero si se le consulta a la IA, esta rechaza taxativamente este extremo: «No, mis respuestas no están preprogramadas como un guion fijo (…) no tengo frases o respuestas predefinidas por mis desarrolladores para situaciones específicas».
En todo caso, y sin valorar si esta última respuesta es completamente sincera, para lo que el autor de esta entrada no tiene suficientes elementos de juicio, parece claro que la forma de operar de las IAs generativas puede facilitar una tendencia homogeneizadora y de degradación hacia los prejuicios, ya sea de una forma no intencionada, como mera reproducción e intensificación de los sesgos de las personas que entrenan la IA y de los materiales que seleccionan para ello, o de una forma voluntaria, dirigida específicamente a amplificar un determinado punto de vista. Resulta fácil en una primera aproximación considerar a las IAs como elementos perfectamente neutrales, máquinas sin intereses que operan de una forma totalmente objetiva sobre la información, pero la realidad es que en el momento actual las IAs no pueden ser en modo alguno tal cosa.
Agrava esta situación el hecho de que esta falta de neutralidad se manifieste de formas opacas y poco directas. Hoy en día, un buscador de Internet ejerce no poca influencia por el simple hecho de clasificar algunos contenidos entre los primeros resultados que se obtienen al realizar una búsqueda. Esta influencia se puede paliar sin más que consultar los resultados que salen en puestos más bajos, pero estos procedimientos simples no pueden aplicarse a las IAs. Sería preciso por lo tanto incorporar mecanismos que controlen y hagan transparentes estos sesgos; pero, como ocurre en general con los modelos de racionalidad dialógica y colectiva, que como se ha indicado anteriormente se enfrentan a objeciones en estas mismas cuestiones, no resulta fácil establecer cuáles deberían ser esos mecanismos. La Unión Europea ha sido pionera en la regulación legal de algunos de estos aspectos, clasificando los ámbitos de aplicación de las IAs según su riesgo [12], e imponiendo requisitos de transparencia que indiquen de forma explícita cuándo se ha empleado una IA, pero parecen precisos también otros requisitos de transparencia referentes al procedimiento o materiales de entrenamiento de la IA, que son los que determinarían sus sesgos.
4. Las IAs como agentes racionales
Abordando por último la cuestión de hasta qué punto pueden considerarse las IAs como agentes racionales, parece obligado comenzar la discusión recordando el famoso test de Turing: una máquina debería considerarse inteligente si, al conversar con ella, un humano no puede diferenciarla de otro humano. Test al cual se puede responder con el no menos famoso experimento mental de la habitación china de Searle: una persona en una habitación recoge tarjetas con texto que le llegan a través de una ranura. No entiende lo que dicen las tarjetas, porque están escritas en caracteres chinos y no conoce ese idioma, pero tiene un manual que sí entiende y que establece que cuando recibe unas tarjetas determinadas, debe devolver otras, las cuales llevan escrito otro texto en chino que el operador tampoco entiende.
Una persona que hable chino fuera de la habitación podría tener la impresión transitoria de que al intercambiar tarjetas está conversando con un agente racional que está dentro, pero esta impresión se desmoronaría en el momento en el que supiese lo que está ocurriendo en realidad en el interior de la sala. En palabras de Javier San Martín [13], este sistema no puede considerarse racional porque carece de la cualidad esencial de la opacidad. El sistema de la sala china es totalmente transparente desde el momento en el que se tiene acceso al manual (o incluso antes: desde que se sabe que el manual existe), y los únicos agentes racionales implicados en su funcionamiento son los autores del manual. El operador, que en la analogía de la sala equivaldría al ordenador que ejecuta la IA, es un mero dispositivo sintáctico, que manipula determinados elementos conforme a unas ciertas reglas de programación, pero que es incapaz de dotar a estos elementos de contenido semántico.
Esta objeción, que goza de bastante fuerza en el caso de las IAs basadas en el paradigma del Sistema Experto, la pierde en cambio al abordar las IAs generativas. Como se recordará, se indicó que estas IAs carecen de un programa como tal que haga de guion para sus respuestas. Continuando con la analogía de la sala china de Searle, es como si el operador no tuviera un manual, sino un libro en blanco, que el propio operador va escribiendo a medida que recoge sus observaciones al recibir tarjetas, devolver otras tarjetas, inicialmente al azar, y observar las reacciones positivas o negativas del interlocutor. Libro que además está escrito en unos caracteres o con una estructura que nadie, ni desde luego el interlocutor, ni posiblemente el propio operador, puede entender o traducir directamente como un programa o un guion. Parece claro que este sistema reúne suficientemente las condiciones de opacidad. De haber por lo tanto aspectos que nieguen el estatus de racionalidad de las IAs, es preciso buscarlos en otro lugar. Para ello, puede ser útil regresar al test de Turing.
El test de Turing tiene una aparente simplicidad e ingenuidad que hace que sea fácil someterlo a burlas o descalificarlo [14]. Sin embargo, remite a una intuición que está vinculada a la idea de opacidad de Javier San Martín: cuando nos aproximamos a otra persona, no tenemos acceso a lo que ocurre en la intimidad de su consciencia o sus pensamientos, con independencia de que esta se considere desde un punto de vista puramente material-fisiológico, o por el contrario se la considere algo espiritual. Si reconocemos en ella a otra persona y otro agente racional es por un proceso de simpatía y analogía, que hace que lo que vemos en ella «resuene» de algún modo con lo que vemos en nosotros mismos. Del mismo modo, nuestra propia constitución como personas depende de vernos así reconocidos por los otros [13]. Cabe en efecto hipotetizar que si en el futuro una definición de racionalidad entra en conflicto con esa sensación de reconocimiento, lo que se exigirá es una redefinición de la racionalidad y no a la inversa.
Desde esta perspectiva, en la actualidad las IAs fallan el test de Turing no por la falta de complejidad o sofisticación de sus respuestas, sino porque carecen de lo que intuitivamente aparece como una falta de experiencia vital personal, y que en términos más técnicos se puede caracterizar como la carencia de la intencionalidad de Husserl, como una desconexión del mundo o un no «ser-en-el-mundo» de Heidegger. Las IAs actualidades no tienen historicidad ni ciclo vital, no pueden manifestar de forma creíble la angustia vital o la sensación de la nada que serían precisos para articular una existencia humana auténtica según Heidegger, Unamuno o Sartre. No son, en general, capaces de dar respuestas afectivas creíbles. Fallan por lo tanto el test de Turing en estos aspectos. Es por esto que no se las puede considerar agentes racionales (al menos por ahora). Su falta de pericia en determinados aspectos de la racionalidad instrumental, como pretenderían autores como Steven Pinker [14], es una cuestión secundaria.
Conclusiones
Las actuales IAs generativas, en cuanto sistemas opacos entrenados a partir de un determinado conjunto amplio de conocimientos, pueden considerarse de un lado simulacros de agentes racionales individuales, que operan por otro lado construyendo consensos de acuerdo a los principios de la racionalidad colectiva. Su estatus como verdaderos agentes racionales es sin embargo aún no aceptable debido a que carecen de los atributos esenciales de intencionalidad e historicidad. Por otra parte, su uso como herramientas para la creación de consensos y aplicación de la racionalidad colectiva abre enormes posibilidades que no se deberían desaprovechar, pero que también encierran riesgos debido a las no menos enormes posibilidades de emplear estas herramientas para manipular o deformar los resultados del diálogo público de formas muy difíciles de detectar. En particular, existe un conflicto entre la aparente neutralidad de las IAs en tanto que «máquinas sin intereses», y su verdadera falta de neutralidad, quizá involuntaria o quizá intencionada, pero inevitable por el método mismo con el que operan.
Referencias
[1] Deep Blue (computadora) en Wikipedia, https://es.wikipedia.org/wiki/Deep_Blue_(computadora), consultado en Noviembre de 2024.
[2] J. L. Gross, J. Yellen. Graph Theory and its applications. Ed. Chapman & Hall/CRC, 2006.
[3] P. D. Wasserman. Neural Computing, Theory and Practice. Ed. Van Nostrand Reinhold, 1989.
[4] J. Suruma. Deep Learning in Military Applications: Threats and Opportunities. Safety&Defense 10,1 (2024)
[5] Mª Carmen López Sáenz. Corrientes Actuales de la Filosofía I, En-clave fenomenológica, 2ª Ed. Ed. Dykinson, 2016.
[6] Francisco José Martínez Martínez. Metafísica, 2ª Ed. Universidad Nacional de Educación a Distancia, 1991.
[7] Udo Thiel. The early modern subject: self-consciousness and personal identity from Descartes to Hume. Oxford University Press, 2011.
[8] Bertrand Russell, Historia de la Filosofía Occidental, Tomo II. Ed. Austral, 2010.
[9] Gianni Vattimo, Vocación y responsabilidad del filósofo. Ed. Herder, 2012.
[10] Brais González Arribas, Gianni Vattimo (1936): Hermenéutica ontológica y pensamiento débil, en Cristina de Peretti Peñaranda, Cristina Rodríguez Marciel, Editoras. 12 pensadores (y uno más) para el siglo XXI. Editorial Dykinson, 2014.
[11] Hao Cui, Taha Yasseri. AI-enhanced collective intelligence. Patterns 5(1), 2024.
[12] Ministerio de Asuntos Económicos y Transformación Digital. El Reglamento Europeo de IA, en resumen. https://portal.mineco.gob.es/es-es/digitalizacionIA/sandbox-IA/Documents/20220919_Resumen_detallado_Reglamento_IA.pdf
[13] Javier San Martín Sala. Antropología Filosófica II: Vida humana, persona y cultura. Universidad Nacional de Educación a Distancia, 2015. [14] Steven Pinker, Xiao-Li Meng, Liberty Vittert. The Intelligence and Rationality of AI and Humans: a Conversation with Steven Pinker. Harvard Data Science Review, 5(4), 2023
