Hay una transformación silenciosa en curso que no tiene que ver únicamente con lo que hacemos, sino con nuestra relación con lo que hacemos. La inteligencia artificial irrumpe precisamente para obligarnos a interrogarnos sobre en quiénes nos convierte la libertad con la que operamos en el mundo a través de ella. En un contexto de escalada militar sostenida, donde decisiones tomadas en cuestión de segundos reorganizan territorios, poblaciones y equilibrios internacionales, la pregunta por el límite ya no puede formularse en términos estratégicos. No es una cuestión de capacidad, sino de medida. Hemos alcanzado un punto en el que la acción ya no necesita ser comprendida para producir efectos, y es en ese desplazamiento donde comienza a erosionarse la posibilidad misma de la responsabilidad. Lo que está en juego no es solo lo que podemos hacer, sino si seguimos siendo capaces de reconocernos en las consecuencias de esa acción.
Debemos, por tanto, reformular la pregunta acerca del "límite" o, en plural, de los "límites". Esta pregunta ya no es técnica cuando nos referimos a la situación geopolítica, económica o tecnológica, sino constitutiva, porque no se trata de qué podemos hacer o de qué somos capaces, sino de qué nos convierte en sujetos capaces de responder por lo que hacemos. Günther Anders situó ese punto en la irrupción de la bomba atómica porque introdujo una mutación irreparable. La humanidad se volvía técnicamente aniquilable en su totalidad. A partir de ahí, la continuidad del mundo dejaba de depender de lo que somos para depender de lo que decidimos no hacer. Ha sido el compromiso de "no uso", aún a medias, gracias a la Convención Internacional sobre el Desarme y No Proliferación Nuclear, lo que nos ha permitido seguir aquí. El pacto nuclear no fue un pacto de creación, sino de abstención, pero esa abstención no resolvía el problema de fondo, solo lo contenía, lo aplazaba, lo convertía en una responsabilidad suspendida en el tiempo. Esa conversación, sin embargo, sigue envenenando el debate geopolítico, porque el compromiso fue siempre condicional.
Cuando una decisión se apoya en sistemas de predicción, en modelos entrenados con cantidades masivas de datos, en procesos que ningún individuo puede recorrer en su totalidad, la relación entre acción y conciencia se debilita hasta el punto de volverse abstracta. No dejamos de actuar, pero dejamos de experimentarnos como quienes actúan, y en ese desplazamiento la ética pierde su suelo
La inteligencia artificial transporta ese problema a un terreno más inquietante, pasa de ser el de la destrucción total al de la disolución progresiva de la responsabilidad. Porque si en lo nuclear la acción material es identificable, alguien podía, en último término, accionar, en los sistemas contemporáneos de inteligencia artificial la acción se fragmenta, se distribuye, se automatiza hasta el punto de volverse irreconocible como acto directo o derivado de otros. La decisión en los sistemas de inteligencia artificial ya no es un acontecimiento localizable, sino una cadena de operaciones en la que cada eslabón puede alegar distancia respecto del resultado final sin por ello dejar de producirlo. Y, sin embargo, el resultado se produce. Silvia Bleichmar insistía en que la ética no es un código externo ni una declaración de principios, sino una construcción psíquica. La capacidad de reconocerse como autor de los propios actos y de responder por ellos incluso en ausencia de sanción. La ética no reside en la norma, sino en la posibilidad de decir que eso que ha ocurrido tiene que ver conmigo. De denominarnos "sujeto ético", como explicaba, que comprende su implicación en el mundo. La inteligencia artificial, tal como se está desplegando, introduce una fisura en esa posibilidad, no porque elimine la agencia humana, sino porque la vuelve opaca para sí misma. Cuando una decisión se apoya en sistemas de predicción, en modelos entrenados con cantidades masivas de datos, en procesos que ningún individuo puede recorrer en su totalidad, la relación entre acción y conciencia se debilita hasta el punto de volverse abstracta. No dejamos de actuar, pero dejamos de experimentarnos como quienes actúan, y en ese desplazamiento la ética pierde su suelo.
Esto no es una deriva hipotética, ya la habitamos como una estructura operativa. Las decisiones que atraviesan hoy el tablero geopolítico, las tensiones en el estrecho de Ormuz, los bombardeos, la gestión militarizada de territorios, no solo producen efectos inmediatos, generan también datos. Patrones de comportamiento, respuestas poblacionales, eficiencias operativas, tiempos de reacción, mapas de vulnerabilidad. La violencia contemporánea que hemos diseñado históricamente no se agota en el daño que produce, y por lo tanto ya no se puede medir en hombres que disparan. La división más peligrosa en estos momentos es cómo los actos son información acumulada sobre cómo se infringen daño y sufrimiento. Los sistemas de inteligencia artificial no distinguen entre lo que debería ser y lo que simplemente ha demostrado ser eficaz. Pero esa eficacia no es neutra, no es un criterio técnico inocente, sino una categoría profundamente política. Eficaz para quién, bajo qué régimen de valor, a costa de qué vidas. La inteligencia artificial no formula esas preguntas, y en esa omisión se consolida una forma de violencia que ya no necesita justificarse, porque se presenta como resultado óptimo de un cálculo. La falta de ética en la elaboración del discurso geopolítico se basa en cómo lo técnico ha sustituido la dimensión humanitaria de la decisión, y siendo esa la característica más importante de los seres humanos, el léxico que se elige para narrar la violencia, en la eficacia que sustituye a la justicia, la optimización a la responsabilidad, vemos cómo se degrada la idea de lo intolerable.
Los cuerpos palestinos, como antes otros cuerpos racializados en otros contextos, no son únicamente objeto de violencia, se convierten en campo de entrenamiento, en superficie de inscripción de datos sobre control, vigilancia, clasificación, anticipación. Así se ha desarrollado en Gaza. Pero no es casualidad la necesidad de acumulación de datos que convierten la inteligencia artificial en una base de funcionamiento para la maquinaria de la muerte que activan los países pioneros en tecnología y, sobre todo, no son solo las vidas de los palestinos las que se exponen bajo estos sistemas de control. Lo que se prueba con este uso de la información en las guerras, los conflictos bélicos, las crisis humanitarias, las bases militares es cómo lo que recogen los sistemas no se queda allí, se integra, se modeliza, se exporta, y en ese proceso la inteligencia artificial no rompe con la violencia humana, introduce su amplificación sistemática, porque aprende de lo que hacemos pero no valida la alternativa amparada por el Derecho Internacional, absorbe la historia tal como ha sido ejercida, no su alternativa en el discurso moral. Si los datos están atravesados por sesgos raciales, por lógicas coloniales, por prácticas de deshumanización, la inteligencia artificial no los neutraliza, los formaliza y, al formalizarlos, los estabiliza. Así es como también se normaliza la violencia digital contra las mujeres en los foros de debate y las redes sociales. Así es como Grok entiende que, como se requieren desnudos masificados de mujeres o de niños, eso no significa directamente que sea nocivo, ni siquiera ilegal o dañino, sino que por repetición sistémica y sin un neutralizador ético que ponga límites, lo lógico es ofrecer esos resultados aunque en la dimensión ética vulneren permanentemente los derechos de mujeres y menores.
Ya no es funcional apelar al uso responsable, no basta con no apretar el botón, no basta con abstenerse, porque la responsabilidad no desaparece cuando se difumina la acción, porque hay una obligación de responder por sistemas cuyo funcionamiento no controlamos plenamente pero cuya existencia sí sostenemos. Volvemos entonces a la pregunta acerca del límite, tan poco reflexionado, pero el límite ya no puede pensarse como prohibición de un acto singular, porque no hay un acto singular que contener, no hay un punto de activación claro, no hay un exterior desde el que detener el proceso. La inteligencia artificial no es un objeto que pueda aislarse, es una forma de organización del mundo que se despliega a través de infraestructuras militares, económicas y políticas, y cuyo funcionamiento coincide con la propia lógica de expansión del poder contemporáneo. El límite, si existe, no puede ser técnico, tendría que ser ético en un sentido mucho más radical, debe ser la decisión de no delegar aquello que constituye la posibilidad misma de la responsabilidad. Pero eso implicaría renunciar a formas de eficacia que se han vuelto estructurales, implicaría aceptar una pérdida de control operativo en nombre de una recuperación de la capacidad de responder, y no hay indicios de que ese sea el camino que se esté tomando.
Así es como Grok entiende que, como se requieren desnudos masificados de mujeres o de niños, eso no significa directamente que sea nocivo, ni siquiera ilegal o dañino, sino que por repetición sistémica y sin un neutralizador ético que ponga límites, lo lógico es ofrecer esos resultados aunque en la dimensión ética vulneren permanentemente los derechos de mujeres y menores
En el contexto reciente de la escalada militar, con Estados Unidos e Israel atacando objetivos en Irán, distintos informes han señalado el uso de sistemas de inteligencia artificial en la identificación de blancos, en escenarios donde errores de clasificación han podido contribuir a ataques sobre infraestructuras civiles. Pero lo inquietante no es únicamente el fallo, sino su naturaleza. Cuando la decisión se apoya en sistemas que operan por patrones de eficacia y probabilidad, el error deja de ser una anomalía atribuible y se convierte en un efecto estructural difícil de reconstruir. No se trata de que la inteligencia artificial se equivoque en el sentido humano del término, sino de que introduce un tipo de error en el que la cadena de responsabilidad se fragmenta hasta el punto de volverse irreconocible, desplazando la posibilidad misma de responder por lo ocurrido.
Se habla de inteligencia como si fuera una virtud en sí misma, pero no toda inteligencia es habitable, no toda inteligencia puede integrarse en una vida humana sin desbordarla. Y quizá el signo de nuestro tiempo no sea haber creado sistemas cada vez más sofisticados, sino haber aceptado vivir en un mundo en el que la inteligencia opera sin necesidad de sujeto. Si Anders nos obligó a pensar que podíamos destruir el mundo, la inteligencia artificial nos obliga a enfrentar algo más difícil de asumir y es que podemos hacerlo sin siquiera reconocernos en ello.
Ayúdanos a resistir
En Kamchatka rechazamos los discursos de odio que colisionan con los derechos intrínsecos a cualquier ser humano. No todas las ideas son válidas ni respetables cuando se utilizan como un arma arrojadiza contra la convivencia y la igualdad. Aquí solo encontrarás opiniones en consonancia con los principios básicos de una sociedad libre y democrática. Apoya el pensamiento crítico desde 5 euros.

Deja un comentario
Lo siento, debes estar conectado para publicar un comentario.