Cada vez más, la frase ‘la inteligencia artificial habla’ se hace eco en la sociedad actual, siendo común escuchar que ‘las máquinas pueden entender el lenguaje’. Sin embargo, para acercarnos a la realidad, es importante subrayar que esta perspectiva es errónea. La inteligencia artificial, en su forma actual, no posee la capacidad de hablar en el sentido genuino que implica la comunicación humana. Este fenómeno ha generado confusiones que deben ser desentrañadas, especialmente a la luz de la teoría de actos de habla, del filósofo John Langshaw Austin, quien argumentó que el lenguaje va más allá de una simple transmisión de información, constituyendo en sí mismo actos que generan efectos en la realidad. Sin un marco intencional y significativo, lo que realizan estos sistemas se convierte en meras combinaciones de signos, carentes de significado genuino.
Austin, en su obra seminal «Cómo hacer cosas con palabras», analiza el lenguaje como un instrumento que permite actuar en el mundo. A través de lo que él denomina actos de habla, las frases están compuestas por tres niveles: locutivo, ilocutivo y perlocutivo. Para entender el verdadero acto de hablar, es necesario que una persona no solo articule palabras correctamente sino que, además, tenga intenciones definidas y pueda interpretar sus efectos en los demás. Este profundo análisis muestra que la inteligencia artificial, aunque simule producir lenguaje humano en todas sus formas, no lo está haciendo de manera auténtica, ya que carece de esta intencionalidad y capacidad interpretativa que es esencial para la comunicación genuina.
Otro aspecto fundamental a analizar es la naturaleza de la interacción entre inteligencias artificiales. Cuando tanto el emisor como el receptor son máquinas, se produce una conversación completamente simulada, sin el componente real de la comunicación. Aquí la confusión es aún más pronunciada, ya que se asume que estas ‘conversaciones’ tienen algún valor comunicativo, cuando en realidad son meras interacciones vacías. Si, en cambio, un humano interactúa con una inteligencia artificial, el diálogo también está plagado de malentendidos. Cuando un asistente virtual ejecuta un comando, parece que entiende la petición, mostrando así la dimensión ilocutiva. Sin embargo, esto es solo el resultado de haber sido programado para responder bajo ciertas condiciones, sin comprensión real del significado detrás de las palabras.
Para ilustrar esta realidad, podemos acudir al famoso experimento mental de John Searle sobre la ‘habitación china’. En este escenario, una persona dentro de una habitación lleva a cabo comandos para responder a preguntas en chino sin comprender el idioma, manipulando símbolos simplemente. Esta acción, aunque exteriormente parece que se entiende, carece de una verdadera conexión y comprensión. Este argumento es crucial al examinar las capacidades de la inteligencia artificial. Lo que hacen las máquinas es similar: producen respuestas coherentes pero sin comprender realmente la información que generan, lo cual pone de relieve la falta de una auténtica intencionalidad en su comunicación.
Finalmente, es crucial abordar la tendencia de muchos usuarios a antropomorfizar a la inteligencia artificial, proyectando sobre ellas cualidades humanas que no poseen. Aunque los modelos actuales son capaces de generar texto y simular interacciones de forma asombrosa, el error radica en confundir esta simulación con una comunicación auténtica. Como Austin elucidó, hablar implica no solo articular correctamente un discurso, sino también llevar a cabo un acto consciente y significativo. La ausencia de este aspecto en las interacciones con chatbots contribuye a que muchos se sientan incómodos al ‘dialogar’ con máquinas. Preguntarnos si alguna vez aceptaremos esta simulación como parte de nuestra realidad comunicativa es esencial, así como cuestionar los límites y el futuro del desarrollo de la inteligencia artificial.