Slavoj Zizek sobre la Inteligencia Artificial: "El peligro no es tomar a un chatbot por persona, sino que las personas hablen como chatbots"

 


Slavoj Zizek sobre la Inteligencia Artificial: "El peligro no es tomar a un chatbot por persona, sino que las personas hablen como chatbots"

El filósofo esloveno teme que el surgimiento de poderosos chatbots signifique la muerte de la ironía y los matices en el pensamiento humano. Habla de "idiotez artificial".



No hay nada nuevo respecto de los “chatbots” que son capaces de mantener una conversación en lenguaje natural, entender la intención básica de un usuario y dar respuestas basadas en reglas y datos preestablecidos. Pero la capacidad de estos chatbots ha aumentado drásticamente en los últimos meses, lo que ha creado gran preocupación y pánico en muchos círculos.


Mucho se ha dicho sobre que los chatbots auguran el fin de los ensayos tradicionales de los estudiantes. Pero una cuestión que justifica prestar más atención es la forma en que los chatbots deberían responder cuando los interlocutores humanos hacen comentarios agresivos, sexistas o racistas para incitar al bot a contestar con sus propias fantasías groseras. ¿Las IAs deberían estar programadas para contestar en el mismo nivel de las preguntas que se les plantean?

Si decidimos que algún tipo de regulación es oportuno, debemos determinar qué tan lejos debería llegar la censura. ¿Estarán prohibidas las posturas políticas que algunas cohortes consideran “ofensivas”?

¿Qué hay de las expresiones de solidaridad con los palestinos de Cisjordania o la afirmación de que Israel es un estado con apartheid (que el ex presidente estadounidense Jimmy Carter una vez puso en el título de un libro)? ¿Estarán prohibidas por ser “antisemitas”?


El problema no se acaba aquí. Como advierte el artista y escritor James Bridle, las nuevas IAs se “basan en la apropiación indiscriminada de la cultura existente”, y el creer que son “realmente expertas o significativas es algo activamente peligroso”. Por lo tanto, debemos ser muy cautelosos con los nuevos generadores de imágenes de IA.

“En su intento de comprender y reproducir la totalidad de la cultura visual humana”, observa Bridle, “parecen haber recreado también nuestros miedos más oscuros. Quizá esto sea sólo una señal de que estos sistemas son muy hábiles para imitar la conciencia humana, llegando incluso al terror que acecha en las profundidades de la existencia: nuestro miedo a la suciedad, la muerte y la corrupción”.

¿Pero qué tan capaces son las nuevas IAs de aproximarse a la conciencia humana? Veamos el caso del bar que hace poco publicitó un trago especial en los siguientes términos: “¡Compre una cerveza por el precio de dos y reciba una segunda cerveza totalmente gratis!”.

Para cualquier ser humano, esto obviamente es un chiste. Se reformula el clásico “compre una, reciba una” para que se autocancele. Es una expresión de cinismo que será apreciada como sinceridad cómica, todo para aumentar las ventas. ¿Un chatbot entendería algo de esto?


“Coger” presenta un problema parecido. Si bien designa algo que a la mayoría de la gente le gusta hacer (copular), a menudo también adquiere un valor negativo (“¡Nos cogieron!”). El lenguaje y la realidad son complicados. ¿La IA está preparada para discernir estas diferencias?

En su ensayo de 1805 “De la formación gradual de los pensamientos en el proceso del habla” (publicado por primera vez en forma póstuma en 1878), el poeta alemán Heinrich von Kleist invierte el conocido consejo de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de qué va a decir: “Si, por lo tanto, se expresa un pensamiento de manera confusa, de ningún modo se sigue que ese pensamiento fue concebido de manera confusa. Por el contrario, es muy posible que las ideas que son expresadas del modo más confuso sean las que fueron pensadas más claramente”.

La relación entre el lenguaje y el pensamiento es extraordinariamente complicada.

En un pasaje de uno de los discursos de Stalin a comienzos de la década de 1930, él propone medidas radicales para “detectar y combatir sin piedad incluso a aquellos que se oponen a la colectivización sólo en sus pensamientos… sí, eso quiero decir, debemos combatir incluso los pensamientos de las personas”. Uno puede decir con certeza que ese pasaje no había sido preparado por anticipado. Tras haberse embalado con su discurso, Stalin de inmediato se dio cuenta de lo que acababa de decir. Pero, en lugar de dar marcha atrás, decidió insistir en la hipérbole.

Como más tarde expresó Jacques Lacan, ese fue un caso de aparición de la verdad por sorpresa mediante el acto de la enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y surprise. Alguien que de repente comprende (“prise”) una idea se sorprenderá de lo que ha logrado. Reitero, ¿algún chatbot puede hacer esto?

Idiotez artificial

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente “estúpidos”. No es que sean ingenuos (y no capten la ironía y la reflexividad); es que no son lo suficientemente ingenuos (y no se dan cuenta cuándo la ingenuidad enmascara la perspicacia). El verdadero peligro, entonces, no es que la gente tome a un chatbot por una persona real; es que comunicarse con los chatbots haga que las personas reales hablen como chatbots, pasando por alto todos los matices y las ironías, diciendo obsesivamente y con precisión lo que creen que quieren decir.

Cuando yo era joven, un amigo fue a ver a un psicoanalista para que lo tratara tras una experiencia traumática. La idea que ese amigo tenía sobre lo que los analistas esperan de sus pacientes era un lugar común y entonces pasó toda la primera sesión haciendo falsas “asociaciones libres” sobre cómo odiaba a su padre y quería verlo muerto.

La reacción del analista fue ingeniosa: adoptó una postura ingenua “pre-freudiana” y le reprochó a mi amigo que no respetara a su padre (“¿Cómo puede hablar así de la persona que ha hecho de usted lo que es?”). Esta ingenuidad fingida transmitió un mensaje claro: No creo en sus “asociaciones” falsas. ¿Un chatbot podría captar ese subtexto?

Muy probablemente no lo haría, porque es como la interpretación de Rowan Williams sobre el príncipe Myshkin en El idiota de Dostoievsky. De acuerdo con la lectura tradicional, Myshkin, “el idiota”, es un hombre santo “positivamente bueno y hermoso” que se ve llevado a un aislamiento demencial por las ásperas brutalidades y pasiones del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de la tormenta: por bueno y santo que sea, es quien desencadena el caos y la muerte que presencia debido a su papel en la compleja red de relaciones que lo rodea.

No es sólo que Myshkin sea un bobalicón ingenuo. Es que su particular tipo de necedad hace que no sea consciente de los efectos desastrosos que tiene en los demás. Es una persona chata que literalmente habla como un chatbot. Su “bondad” estriba en el hecho de que, al igual que un chatbot, reacciona a los desafíos sin ironía, diciendo perogrulladas carentes de toda reflexividad, tomando todo de manera literal y recurriendo a un autocompletar mental en lugar de una auténtica formación de ideas. Por este motivo, los nuevos chatbots se llevarán muy bien con los ideólogos de todos los colores, desde el público “woke” a los nacionalistas del “Make America Great Again” que prefieren seguir dormidos.

*Slavoj Žižek, profesor de Flosofía de la European Graduate School, director internacional del Instituto Birkbeck de Humanidades de la Universidad de Londres y autor de "Heaven in Disorder" (OR Books, 2021).

Copyright: Project Syndicate, 2023. Desde Liubliana, Eslovenia

Traducción: Elisa Carnelli


Google abrió el acceso a Bard, su chatbot de inteligencia artificial y principal rival de ChatGPT


Commentaires

Articles les plus consultés