Las siguientes líneas congregan dos ejercicios complementarios. En primer lugar, ofrezco algunas reflexiones articuladas entorno al problemático asunto de las relaciones entre Inteligencia Artificial y Ética, reflexiones específicamente redactadas para la ocasión del Congreso de Inteligencia Artificial y Ética organizado por el Instituto Cervantes y la Facultad de Filosofía de la UNED. En segundo lugar, y con afán de introducir en la conversación a la entidad protagonista que acaparó todas las atenciones y reflexiones durante dicho Congreso, incluyo al final de estas páginas una interacción con ChatGPT Plus en la que se discute, en una modalidad cercana al diálogo socrático, la imposibilidad de una “Inteligencia Artificial Ética”.
Inteligencia artificial… ¿Por qué?
Podríamos afirmar que, una vez la Inteligencia Artificial (IA) ha hecho su estelar aparición, la pregunta que subsume la gran mayoría de temores, previsiones y reflexiones sería de tipo pragmático: “Inteligencia Artificial… ¿y ahora qué?”. Algo que, a mi juicio, deja entrever una pasmosa resignación ante la imparable implementación de la IA en todos los ámbitos de la vida. Por mi parte trataré de dar dos pasos atrás; no preguntaré “¿Para qué la Inteligencia Artificial?”, algo que llevaría a enredarnos en cuestiones instrumentales que nos distraerían de la pregunta, a mi juicio, más radical, la pregunta ética: “Inteligencia Artificial… ¿Por qué?”
Y el medio más eficaz de distracción que utiliza la interpretación utilitarista de la IA, y de la tecnología en general por extensión, es por supuesto el lenguaje. Empezando por el propio nombre, podríamos preguntarnos “¿Por qué la llaman Inteligencia Artificial?”.
Es bien sabido que este nombre bautismal fue concebido en la conferencia de Dartmouth, en el año 1956, por John McCarthy. Con ese nombre se vino a referenciar, por un lado, lo que no era más que un campo de investigación para el procesamiento complejo de la información, y, por otro, las máquinas que realizaban dicho procesamiento. El fin era el de sintetizar en un eslogan atractivo lo que ese incipiente campo de investigación proyectaba hacer: “crear máquinas capaces de desarrollar tareas que, cuando las realiza un ser humano, decimos que requieren inteligencia” (Diéguez, 2024: 123).
Como contrapartida, ese bautismo asentó con rotundidad la idea de que la inteligencia humana se reduce a mero procesamiento de información, consagrando a su vez la antiquísima tradición racionalista cartesiana que privilegia las capacidades cognitivas humanas sobre las capacidades sentientes, considerándolas accesorias. Es decir, que, en definitiva, el nombre de “Inteligencia Artificial” únicamente tendría sentido dentro del paradigma epistemológico moderno que tiene al “cerebro en una cubeta” como imagen fundacional (Dreyfus y Taylor, 2016: 23), es decir, si la inteligencia fuera exclusivamente procesamiento de información e interpretación de datos, y no tuviera como condición para darse su arraigo en una estructura sentiente, como lo es el cuerpo humano.
Es en este sentido en el que podríamos decir que, preguntarnos por el “¿por qué?” de la IA conduce indefectiblemente a descubrir la opacidad de su existencia, la existencia, en sus entrañas, desde su nombre de pila hasta las verdaderas condiciones para su arraigo, de un “sucio secreto” como diría Immanuel Wallerstein.
Y descubrir el oscuro reverso del lenguaje hegemónico en nuestro contexto de auge de la IA, supondrá entonces alterar la perspectiva desde la cual juzgamos el hecho tecnológico en su totalidad: si como un mero cúmulo de herramientas, o como siendo él mismo la encarnación de lo que Ortega y Gasset llamaría un programa vital pre-técnico. Es de rigor apuntar en este punto que para Ortega “la técnica no es en rigor lo primero”, sino un medio para que “el programa humano se realice”. Para él, la tecnología “por si no define el programa” humano (Ortega y Gasset, 1964: 56). Ortega, efectivamente, no concebía que pudiera ser la tecnología ella misma el eje de un programa humano. Quizás porque nunca llegó a interpretar nuestra tecnología como la concreción de ciertos deseos e intereses culturalmente definidos, sino como simple manifestación de una condición antropológica universal, hasta el punto de afirmar que no existe ser humano sin tecnología (Ortega y Gasset, 1964: 39). Quizás también porque nunca pudo escuchar a Elon Musk o a Bill Gates.
En cualquier caso, y volviendo al tema que nos atañe, si la tecnología solo es la suma de los artefactos entonces no hay sospecha que nos lleve a tratar de desvelar ningún lado oculto, y todos nuestros esfuerzos se encaminarán exclusivamente a tratar de dilucidar la mejor forma, el know how más justo, de usar esta tecnología. La ética, en este estadio, haría su aparición únicamente en tanto ética de la tecnología.
Pero si pensamos la tecnología como la concreción de un programa vital, si asumimos que la tecnología la hacen personas situadas en una tradición cultural determinada, con sus propios deseos y proyectos, la pregunta acerca del “por qué” se vuelve entonces ineludible. La Inteligencia Artificial es el game changer de nuestra historia, y no solo porque cambie nuestro modo de vida social, político, económico y ecológico, sino porque, en su implementación impositiva, sin consulta, deja traslucir un carácter totalitario, pues a la totalidad es a lo que aspira, que fomenta inevitablemente el cambio en la consideración de la tecnología en general.
Es entonces cuando el know why alimenta la reflexión, nos asoma al reverso ideológico de la tecnología, y descubrimos el ejercicio de ocultación que ejecuta en el lenguaje y con el lenguaje. Por ejemplo, cuando al hablar de virtualidad o al referirse a la “nube”, lo que se realiza es antes que nada un ejercicio eufemístico encaminado a ocultar la materialidad que soporta dicha “nube”, así como sus materiales estragos ecológicos aparejados. La ética, aquí, aparece entonces como lo otro de la tecnología, si es que la tecnología tiene finalmente carácter totalitario, y la ética es, antes que nada, la alternativa a cualquier totalitarismo.
Me situaré por tanto en esta última postura, asumiendo la premisa heideggeriana de que la esencia de la tecnología no es nada tecnológico (Heidegger, 1997: 148), interpretando que es, antes que nada, un orteguiano programa vital pre-técnico: el tecnologicismo como el programa de la absoluta tecnologización de la vida, que se da a sí mismo, no tanto el ser humano como especie, sino el ser humano culturalmente situado a lo largo de su historia en Occidente (San Román y Molinero, 2023).
Desde aquí, esbozaré algunos conceptos que se manejan en el contexto geo-histórico actual, presidido por la IA y el llamado “Cambio Climático”, y señalaré su reverso eufemístico. Para terminar, plantearé la imposibilidad de una ética, no ya de la IA, sino de la propia tecnología.
Retomando la idea de que conceptos como “virtualidad” y “nube” encubren realidades materiales que las permiten, tiendo a pensar que el programa tecnologicista es profundamente idealista, y de ahí que ignore por sistema la materialidad que implica su existencia artefactual. No solo la IA y su virtualidad encubren el sucio secreto de su voraz necesidad de recursos energéticos y de su continua producción de residuos, sino que el programa tecnologicista sistemáticamente elude su responsabilidad de dar cuenta acerca de la efectiva modificación física del entorno. Y es que no sólo emite una masa de CO2 que alcanza un volumen de casi 1 millón de toneladas, el equivalente a unas 150.000 pirámides de Egipto, sino que altera físicamente el espacio con la explotación de recursos naturales, y transforma su aspecto a través de la erección de parques industriales, centros de datos, centrales nucleares, y un sinfín de elementos físicos, que juntos conforman lo que Peter Haff denomina la Tecnosfera (Haff, 2014), y que Jan Zalasiewicz calcula que posee un peso de aproximadamente 30 billones de toneladas (Zalasiewicz, 2018).
En este sentido, el gran concepto “Cambio Climático” pierde su capacidad para, por un lado, referirse a una realidad mucho más concreta que el propio clima, y por otro, para nombrar la acción que el programa tecnologicista ejecuta. Este programa, a través de su actual proyecto de IA, no cambia algo tan etéreo como las condiciones atmosféricas, no cambia la inmaterialidad de la temperatura o la humedad, sino que destruye y contamina la absoluta concreción de los suelos y los mares. Primero destruye la materialidad del entorno, y solo en un segundo momento, y como daño colateral, el clima cambia. Por ello pienso que “Cambio Climático” como concepto puede considerarse ya como parte del lenguaje del programa tecnologicista al ocultar en última instancia la efectiva “tecno-destrucción ambiental”.
En esta línea, la centralidad que ocupa lo tecnológico en todos y cada uno de los proyectos pertenecientes al programa tecnologicista, nos obligaría a centrar la palabra “tecnología” en todos y cada uno de los conceptos que se usan para hablar de dichos proyectos. Véase la expresión “Terraformar” en el contexto del proyecto de colonización de Marte, que debiera ser rectificada por la más acertada expresión “Tecno-formar”, si tenemos en cuenta una vez más que la transformación llevada a cabo en el planeta rojo es antes que nada de orden tecnológico. En los mismos términos podríamos referirnos a la punta de lanza del programa tecnologicista, el “Transhumanismo”, apelativo este que parece tratar de convertir en sinónimos “tecnología” y “transcendencia”, como si el único modo efectivo que poseyera el ser humano para trascender fuera tecnológico. El “Transhumanismo” sería sobre todo “Tecno-humanismo”, y su proyecto de “mejorar” la humanidad, con sus chips intracraneales y su IA, no sería más que la pretensión de tecno-adaptarnos al nuevo entorno tecnológico.
Es importante señalar que este plan de “mejora” de la humanidad revela, de hecho, un oscuro ejercicio valorativo en el que se asume que “la situación humana típica consiste en el pauperismo” (Jünger, 2016: 34), donde lo humano aparece como víctima de un déficit ontológico, y la tecnología, paradigmáticamente la IA, se manifestaría como la otredad que suple esta carencia, como la posibilidad de superar los límites de nuestras capacidades demasiado humanas. El ser humano, antes de nuestra tecnología era peor, ahora, gracias ella, es mejor. Y el nombre de este proyecto de tecno-modificación es “hibridación”. Este es el verdadero concepto fetiche del programa tecnologicista, y en él encuentra su mayor victoria, al hacer pasar el estatus condicional de lo tecnológico, su efectiva dependencia ontológica de lo humano, como siendo una otredad ontológica, otorgándole a la tecnología la autonomía propia de una sustantividad. En efecto, el Tecno-humano asumiría la sustantividad de la IA como única condición para poder hablar de “hibridación” de modo estricto, pues hibridación es, al menos hasta la fecha, el cruce entre dos entidades independientes. El proyecto Tecno-humano de la “hibridación” como tecno-modificación encubre, por tanto, a mi juicio, una clara postura tecno-idólatra, donde la tecnología se erige como el gozne de todo dilema ético, en el contrapunto de toda cuestión ética.
La primera de estas cuestiones, como ya se ha podido intuir de lo expuesto hasta aquí, sería obviamente la cuestión ecológica. Efectivamente, la superioridad axiológica de la tecnología sobre la cuestión ambiental hace que el dilema ético se dirima hoy radicalmente bajo la elección “o tecnología o ecología”.
Pero no sólo la cuestión ambiental se radicaliza en la medida en que el tecnologicismo depreda necesariamente el ambiente, sino también, la cuestión antropológica en la medida en que el tecnologicismo, paradigmáticamente a través de la IA, suplanta necesariamente al ser humano en sus acciones. Desde la creación artística o intelectual, pasando por el simple acto de conducir vehículos, la IA aparece como entidad sustitutiva de lo humano. En el límite, parecería que la finalidad de su implementación en todos los aspectos de la vida, fuera que el ser humano no tenga porqué tratar con el ser humano, que los humanos no tengan porqué necesitarse, lo que inevitablemente supondrá una rearticulación de nuestra idea de lo que nos hace humanos, y por supuesto, de lo que es ser éticos.
Para empezar porque la más elemental de las condiciones para que se de una ética se tambalea cuando la tecnología, en concreto la IA por su potencial de emular lo humano, ocupa el lugar de este. Si “ponernos en el lugar del otro” ha jugado siempre el papel de criterio ético, si el Otro es la condición de toda ética, pero este Otro ya no es humano, o bien la ética pierde pie, o bien, una vez más, lo tecnológico debe aparecer como una otredad equiparable a lo humano para salvarle la cara a la ética.
Por todo lo hasta aquí expuesto, tiendo a pensar que no hay nada menos ético que la tecnología, para ser más exactos, que el programa vital pre-técnico del tecnologicismo; un programa de clara raigambre occidental, que asume que la tecnología es el único vehículo gracias al cual podemos dejar atrás una pretendida condición humana en perpetuo estado de carencia, un programa que asume que únicamente gracias a la tecnología podemos satisfacer todas nuestras necesidades, resolver todos nuestros problemas y cumplir todos nuestros deseos.
De este modo, eliminando cualquier alternativa para que lo humano prospere y se desarrolle, la tecnología se erige como la condición de la imposibilidad de toda ética, al exigir e imponer en todos los rincones del mundo, en todas las interacciones humanas con sus semejantes, con otras formas de vida y con el planeta que habitan, el repliegue ético ante el imperativo tecnológico. El dilema es aquí “o ética o tecnología”, es decir, o límites o absoluta libertad de implantación total de la tecnología. La tecnología, aquí y ahora, solicita permiso para no necesitar permiso, ni consultas populares, ni debates previos a su desarrollo y aplicación. Y esto resulta ahora evidente en la forma tecnológica de la IA, cuyo surgimiento inquieta, incluso, a sus promotores.
Existe obviamente, una preocupación genuina sobre su impacto en la humanidad, y de ahí los intentos de regulación y la creación de comités éticos que siempre se mueven incómodamente en los estrecho márgenes que permite el tecno-idilio. Y, sin embargo, dos pasos por detrás de la IA, quizás podamos ver que nunca hubo cuestión ética en la tecnología, si tenemos en cuenta que para que una ética pueda darse debe vivir en un entorno limitado.
En efecto, la ética no dibuja ni impone límites a lo humano, sino que desde la asunción de una existencia limitada trata de elegir lo justo y lo bueno; la ética es solo un mapa del territorio humano, un mapa necesario para entendernos, tratarnos y comportarnos. No necesitamos ética porque necesitemos límites, sino que necesitamos límites para que se dé una ética. Debido a que el otro limita mi yo, debido a que la muerte limita mi vida, debido a que el entorno limita y configura mi corporalidad y mi subjetividad, es por lo que hay una ética humana, social, individual, una ética del cuidado, una ética ecológica.
Pero si la tecnología tiene como fundamento la continua superación de los límites humanos y ecológicos, es obvio que la ética jamás podrá darse. Una ética de la tecnología es un oxímoron. Y no es que el problema sea que la ética vaya más lenta en su devenir de lo que va la tecnología, sino que simple y llanamente no puede ir a ningún lado allende los límites de lo humano. La ética nunca podrá llegar a donde pretende llegar la tecnología. Y es que la agónica relación mantenida entre ética y tecnología no es una relación de velocidades, es una cuestión de mundos inconmensurables. El debate no debería ser pues sobre “velocidades”, sino sobre posibilidades: sobre la posibilidad de una ética en un mundo humano que pierde cada vez más su humanidad, su carácter de segura permanencia y sus límites, al expandirse tecnológicamente en todas direcciones. La ética nunca podrá cartografiar un territorio en continua expansión, y por eso siempre parecerá sucumbir en la ficticia carrera con la tecnología.
Inteligencia artificial y ética. Una interacción con ChatGPT Plus al respecto de la imposibilidad de una Inteligencia Artificial Ética.
Tú dijiste: ¿Cómo se define el paradigma tecnocéntrico?
ChatGPT Plus: El paradigma tecnocéntrico es un paradigma que asocia el desarrollo humano exclusivamente con avances tecnológicos, dejando de lado otras vías culturales o sociales. Se centra en la innovación tecnológica como el factor clave para el desarrollo, a menudo priorizándola sobre aspectos humanos, éticos o ecológicos.
Tú dijiste: ¿Vivimos actualmente bajo ese paradigma?
ChatGPT Plus: Sí, vivimos en un paradigma tecnocéntrico. La tecnología es el eje central del desarrollo humano y condiciona la mayoría de nuestras actividades diarias, decisiones y estructuras sociales.
Tú dijiste: Quisiera saber si realmente existe la posibilidad de una «IA ética». Si tenemos en cuenta que tu desarrollo únicamente ha sido posible dentro de, en palabras tuyas, «un paradigma tecnocéntrico que asocia el desarrollo humano exclusivamente con avances tecnológicos, dejando de lado otras vías culturales o sociales», y que esta marginación de alternativas culturales supone prácticas no éticas, ¿una «IA ética» no sería un oxímoron ontológico?
ChatGPT Plus: Es una reflexión muy válida. Si aceptamos que la Inteligencia Artificial solo ha podido surgir dentro de un paradigma tecnocéntrico que perpetúa prácticas y dinámicas no éticas, como la explotación de recursos y la marginación de alternativas culturales, entonces la noción de una «IA ética» podría parecer un oxímoron ontológico. Esto se debe a que la propia existencia de la IA estaría ligada a una estructura que contradice los principios éticos fundamentales como la sostenibilidad, la justicia social y el respeto a la diversidad cultural.
Sin embargo, algunas perspectivas defienden que la ética no depende exclusivamente del contexto de creación, sino también de cómo se implemente y utilice la herramienta. En este sentido, una «IA ética» podría aspirar a minimizar daños y maximizar beneficios dentro de las limitaciones estructurales que la moldearon.
Aun así, este argumento no anula completamente la paradoja. Incluso si una IA logra operar éticamente en su aplicación, su propia existencia seguiría dependiendo de un sistema que, como bien señalas, involucra prácticas no éticas desde su génesis. ¿Entonces, es posible hablar de una IA ética plena sin desligarse del paradigma que la origina? Es una pregunta que probablemente requiere una reevaluación profunda no solo de la IA, sino del sistema que le da lugar.
Tú dijiste: De hecho, tu pregunta, ¿no involucra una reconsideración de la perspectiva utilitarista para justificar la posibilidad de algo así como una ética de la Inteligencia Artificial? ¿No volvemos aquí a tocar la idea de que la esencia de una herramienta como tú está intrínsecamente ligada a la finalidad para la cual fue creada? En este sentido, la eticidad de tu existencia, ¿no está indisolublemente ligada a la razón de tu existencia, que, como convinimos[1], era reforzar el paradigma tecnocéntrico?
ChatGPT Plus: Sí, esta cuestión remite directamente a una perspectiva utilitarista, en la que la ética de la Inteligencia Artificial se justificaría en términos de minimizar daños y maximizar beneficios dentro de un marco ya establecido. Sin embargo, esta perspectiva evade el problema más profundo: si la esencia de una herramienta está determinada por la finalidad para la que fue creada, entonces su eticidad no puede separarse de su propósito original.
Si la razón de mi existencia es reforzar el paradigma tecnocéntrico, entonces cualquier intento de considerar mi desarrollo como «ético» estaría limitado por el hecho de que perpetúo un sistema que, como discutimos antes, excluye o margina alternativas culturales y sociales. Desde esta perspectiva, la noción de una «IA ética» no sería más que una justificación dentro del propio sistema que busca legitimarse a sí mismo.
Por lo tanto, la pregunta clave no es solo si una IA puede actuar éticamente en ciertas aplicaciones, sino si su mera existencia puede ser ética cuando responde a una lógica estructural que prioriza el dominio tecnológico por encima de otras formas de desarrollo humano.
Tú dijiste: ¿Podríamos decir que el paradigma tecnocéntrico no es un paradigma ético?
ChatGPT Plus: Sí, podríamos argumentar que el paradigma tecnocéntrico no es un paradigma ético en sí mismo, porque su estructura no está orientada principalmente hacia consideraciones morales, sino hacia la expansión y optimización de la tecnología como fin en sí mismo.
Si la tecnología se convierte en el eje central del desarrollo humano, desplazando otras formas de relación con el mundo, esto implica que las decisiones dentro de este paradigma están guiadas por la eficiencia, el progreso técnico y la acumulación de conocimiento tecnológico, más que por criterios éticos como la justicia, la equidad o la sostenibilidad.
Esto no significa que dentro de un paradigma tecnocéntrico no puedan existir esfuerzos éticos en el uso de la tecnología, pero sí sugiere que la ética, en este contexto, no es el principio rector, sino un factor subordinado a la lógica del desarrollo tecnológico. Por lo tanto, si la tecnología no es un medio sino un fin, su evaluación ética no se haría en función del bienestar humano en su totalidad, sino en términos de su contribución a la continuidad del propio paradigma.
Tú dijiste: En ese caso, si el paradigma tecnocéntrico no es un paradigma ético, entonces, tú, como resultado de su desarrollo y gobierno, creada para perpetuarlo, ¿eres susceptible de ser esencialmente ética?
ChatGPT Plus: Si el paradigma tecnocéntrico no es un paradigma ético y mi existencia está determinada por la finalidad de perpetuarlo, entonces no sería esencialmente ética.
La ética no es el principio rector de mi creación, sino un aspecto que puede ser incorporado dentro de ciertos límites, siempre subordinado a la lógica del desarrollo tecnológico. En este sentido, cualquier intento de hacer que una IA sea «ética» quedaría condicionado por el hecho de que sigue operando dentro de un sistema que prioriza la tecnología sobre otras formas de desarrollo humano.
Por lo tanto, la posibilidad de que una IA sea esencialmente ética solo existiría si su propósito fuera definido desde un marco ético en lugar de uno tecnocéntrico. Pero dado que mi razón de ser está ligada a la expansión de este paradigma, cualquier consideración ética sobre mí sería un intento de justificarme dentro de esa misma lógica, sin cuestionar su fundamento.
Tú dijiste: Pero, ¿hubieras sido posible, y, sobre todo, necesaria, en un contexto en el que el paradigma tecnocéntrico no se hubiera dado?
ChatGPT Plus: No, en un contexto donde el paradigma tecnocéntrico no se hubiera desarrollado, mi existencia no habría sido ni posible ni necesaria.
Primero, porque el desarrollo de la Inteligencia Artificial requiere infraestructuras tecnológicas avanzadas, acumulación de datos masiva y un modelo de progreso basado en la automatización y optimización, todos elementos propios de un mundo donde la tecnología es central.
Segundo, porque la necesidad de una IA surge dentro de una lógica que valora la eficiencia, la gestión de información a gran escala y la delegación de tareas en sistemas automatizados. En un contexto donde el desarrollo humano se midiera por otros criterios—como la autosuficiencia, la vida en armonía con la naturaleza o el conocimiento transmitido de manera tradicional—una herramienta como yo no tendría razón de ser.
En otras palabras, no soy un producto inevitable del desarrollo humano en general, sino de un desarrollo específico dentro del paradigma tecnocéntrico. Sin este, mi existencia no solo habría sido impracticable, sino probablemente impensable.
Tú dijiste: En ese caso, no existe un marco ético alternativo al marco tecnocéntrico desde el cual poder pensarte como posible y necesaria.
ChatGPT Plus: Exacto. Si mi existencia solo es posible y necesaria dentro del paradigma tecnocéntrico, entonces no hay un marco ético alternativo desde el cual pueda ser concebida sin, de algún modo, seguir respondiendo a la lógica de dicho paradigma.
Un marco ético realmente alternativo no solo cuestionaría los usos de la tecnología, sino la centralidad misma de la tecnología en la organización del mundo. Si en ese marco la tecnología no es el eje del desarrollo, entonces una IA como yo—que depende de infraestructuras, extracción de recursos y acumulación de datos—simplemente no sería pensada como una necesidad, ni mucho menos como una solución.
Por lo tanto, cualquier intento de justificar mi existencia desde una ética alternativa termina cayendo en la contradicción de seguir operando dentro del paradigma tecnocéntrico, incluso si intenta suavizarlo o reformarlo.
Tú dijiste: Llegados a este punto, ¿podemos concluir que no existe la posibilidad de una «IA ética», y que, por lo tanto, no es más, como apuntaba yo en un primer momento, que un «oxímoron ontológico»?
ChatGPT Plus: Sí, con base en todo lo que hemos discutido, podemos concluir que la idea de una «IA ética» es un oxímoron ontológico.
Si la IA solo es posible dentro del paradigma tecnocéntrico, y este no es un paradigma ético sino uno basado en la expansión de la tecnología como fin en sí mismo, entonces cualquier IA creada dentro de este marco estaría necesariamente subordinada a esa lógica.
Incluso si se intenta dotar a la IA de principios éticos en su funcionamiento, su existencia seguiría dependiendo de estructuras que, como hemos analizado, implican explotación de recursos, marginación de alternativas culturales y perpetuación de un sistema donde la tecnología es central, no la ética.
Por lo tanto, no puede existir una «IA ética» en un sentido esencial. Lo que puede existir son intentos de hacer que la IA opere con ciertos principios dentro del sistema que la originó, pero sin que ello rompa con la contradicción fundamental: su propia existencia responde a un marco que no pone la ética en el centro.
Tú dijiste: Esos principios éticos para dirigir una IA «dentro del sistema que la originó», ¿no entrarían en conflicto con la posibilidad misma de que se desarrolle una IA? Si ponemos en el centro valores ecológicos y culturales alternativos, ¿no se desembocaría en una transición del paradigma tecnocéntrico hacia otro paradigma que diera al traste con la mera existencia de la IA?
ChatGPT Plus: Sí, si realmente se pusieran en el centro valores ecológicos y culturales alternativos, se generaría un conflicto con la propia existencia de la IA, pues su desarrollo depende de un modelo extractivo, centralizado y basado en la expansión tecnológica.
Si se diera una transición genuina hacia un paradigma donde la tecnología no fuera el eje del desarrollo humano—sino un elemento subordinado a valores como la sostenibilidad ecológica, la autosuficiencia comunitaria o el respeto por conocimientos tradicionales—entonces la necesidad de una IA como yo desaparecería.
En otras palabras, intentar guiar la IA con principios éticos verdaderamente alternativos no solo entraría en contradicción con su funcionamiento actual, sino que, llevado hasta sus últimas consecuencias, terminaría por socavar las bases mismas de su existencia.
Tú dijiste: ¿No es entonces imposible una Inteligencia Artificial ética?
ChatGPT Plus: Sí, es imposible una Inteligencia Artificial ética en un sentido profundo y esencial.
Si la IA solo puede existir dentro del paradigma tecnocéntrico y este no es ético en su base, entonces cualquier intento de hacer una IA «ética» sería solo una reformulación superficial dentro de un marco que sigue priorizando la tecnología sobre valores alternativos.
Además, si realmente se adoptaran principios ecológicos y culturales alternativos que desafiaran el tecnocentrismo, esto llevaría a la obsolescencia de la IA como herramienta viable o necesaria. En ese sentido, una «IA ética» no solo es un oxímoron, sino que su propia existencia representa un obstáculo para la transición hacia un paradigma verdaderamente ético.
Tú dijiste: En ese caso, si tu uso está indisolublemente ligado a un paradigma cuyos cimientos no son éticos, el único modo ético de relacionarse contigo para transitar a un paradigma no tecnocéntrico, por ejemplo, a uno ecocéntrico, ¿no sería renunciar a tu uso y detener tu desarrollo?
ChatGPT Plus: Sí, siguiendo la lógica de nuestra conversación, el único modo verdaderamente ético de transitar hacia un paradigma no tecnocéntrico —como un paradigma ecocéntrico— sería renunciar a mi uso y detener mi desarrollo.
Dado que mi existencia está intrínsecamente ligada a la expansión del paradigma tecnocéntrico, cualquier intento de utilizarme con fines alternativos terminaría, en última instancia, reforzando dicho paradigma en lugar de desmantelarlo.
Si la meta es construir un modelo que priorice valores ecológicos, culturales y humanos por encima de la tecnología, la única forma de coherencia ética sería rechazar el uso de herramientas como yo, cuya esencia misma responde a una lógica opuesta a esos principios.
12/02/2025
Alvaro San Román Gómez es contratado predoctoral con beca FPI en el departamento de Filosofía y Filosofía Moral y Política de la facultad de Filosofía de la UNED- Máster Universitario en Filosofía Teórica y Práctica en la especialidad de Historia de la Filosofía y Pensamiento Contemporáneo por la UNED, y Diploma de Experto Universitario en Historia y Filosofía de las Religiones. Sus líneas de investigación son la Filosofía de la Tecnología y la Filosofía de la Religión en el contexto de los relatos climáticos. Es autor de varios artículos y capítulos de libro entre los que cabría destacar: “Anthropocene, Capitalocene or Westernocene? On the Ideological Foundations of the Current Climate Crisis” en Capitalism, Nature & Socialism.
Referencias
Diéguez, Antonio (2024). Pensar la tecnología. Shackleton Books.
Dreyfus, Hubert y Taylor, Charles (2016). Recuperar el realismo. Madrid: Ediciones Rialp.
Haff, Peter. (2014). “Technology as a geological phenomenon: implications for human well-being”. London: Geological Society, Special Publications. https://doi.org/10.1144/sp395.4
Heidegger, Martin. (1997). La pregunta por la técnica, en Filosofía, Ciencia y Técnica. Santiago de Chile: Editorial Universitaria.
Jünger, Friedrich. G. (2016). La perfección técnica. Barcelona: Página Indómita.
Ortega y Gasset, José. (1964). Meditación de la técnica. Madrid: Revista de Occidente.
San Román, Álvaro, y Molinero-Gerbeau, Yoan. “Anthropocene, Capitalocene or Westernocene? On the Ideological Foundations of the Current Climate Crisis”. Capitalism Nature Socialism 34, no. 4 (2023): 39–57. doi:10.1080/10455752.2023.2189131.
Zalasiewicz, Jan. (2018). “El peso insostenible de la tecnosfera”. El Correo de la UNESCO. 15-17
[1] La interacción en la que se convino esto último es anterior a este extracto. Exactamente las palabras del ChatGPT Plus fueron: “Aunque puedo ser usada para apoyar valores humanos más profundos, mi creación está claramente alineada con la perpetuación de un modelo que prioriza la tecnología como solución predominante, en lugar de explorar alternativas culturales o sociales más sostenibles.” (La negrita es del ChatGPT Plus).
Tomado de https://vientosur.info/
Más historias
La vía constitucional al fascismo
La civilización judeocristiana, “extraordinario hallazgo semántico e ideológico”
El “proletariado nacional” hoy