La aparición de grandes modelos de idiomas (LLM), como Chatggpt, lanzó una discusión apasionada sobre su posible naturaleza consciente.
Hay pocos usuarios, entre ellos personas con capacitación cientĆfica o humanista, que afirman notar los signos de la vida interna, las emociones e incluso en estos sistemas. Argumentan que ciertos intercambios verbales revelan emociones complejas, empatĆa, autocersistencia e incluso sufrimiento.
Esta ilusión describió al cientĆfico y filósofo estadounidense Douglas Richard Hofstadter como una confusión peligrosa entre el uso sofisticado del lenguaje y la experiencia subjetiva de la conciencia real. Su crĆtica indica la forma en que muchos entusiastas interpretan la complejidad verbal como una seƱal integral, sin reparar una diferencia crucial entre el lenguaje y la experiencia en la generación. Esta es exactamente la diferencia, entre los productos textuales y la subjetividad de la vida, lo que permite la cuestión de la idea de que el sistema de idiomas estĆ” en sĆ mismo, alcanzar la conciencia.
Ilusión de conciencia y efectos de Eliza
Este fenómeno no es nuevo. 1966 El cientĆfico informĆ”tico Joseph Weizenbaum desarrolló Eliza, un programa simple que imitó al terapeuta. A pesar de su simplicidad, muchos usuarios llegaron a creer que el sistema los entendĆa. Esta reacción fue profundamente preocupada por el programa, que advirtió en su influyente libro Fuerzas y la razón humana (1976) de riesgos Ć©ticos y epistemológicos para atribuir la vida mental al software.
Los modelos lingüĆsticos como chatgpt no entienden
Hoy, sesenta años después, con una capacidad verbal de LLM, Eliza Effect ha regresado reforzado. Los sistemas actuales no solo reformulan las preguntas, sino que generan textos con coherencia narrativa, referencias filosóficas, giros elegantes e incluso formas de humor. Sin embargo, esta competencia verbal no implica el interior o la comprensión.
LLM no comprende los conceptos que indican o tienen experiencia sobre lo que describen. EIF Eliza es proyectar la conciencia donde solo existen estructuras lingüĆsticas generadas estadĆsticamente. El resultado son tĆ©cnicas sofisticadas que maximizan la probabilidad de la siguiente palabra basada en patrones extraĆdos de un gran corpus de lenguaje.
Fluidez de los modelos de idiomas
Una de las grandes trampas epistĆ©micas LLM es su fluidez. Su capacidad para construir un discurso por cohesión y elegancia gramatical los hace extremadamente convincentes. El cientĆfico y filósofo estadounidense Douglas Hofstadter (2007) calificó esta capacidad de "fluidez superficial". Es, la capacidad de combinar condiciones y expresiones sin importar reflexión o conciencia real. Lo que parece un pensamiento profundo es en realidad con una sofisticada mación verbal.
Esto es, en términos del filósofo Luciano Florida (2019), "inteligencia artificial sin semÔntica". O, en términos del filósofo de la ciencia, Daniel Dennett (2018), "Habilidad sin comprensión".
¿QuĆ© es ser un bate?
Para entender por quĆ© la fluidez verbal no significa concienzudamente, es apropiado volver a la filosofĆa. Filósofo Thomas Nagel, en su famoso ¿QuĆ© es ser un bate? (1974) (¿Cómo estĆ” el murciĆ©lago?), Afirma que la conciencia implica un punto de vista subjetivo, una calidad fenomenológica que evita una descripción objetiva.
Esta opacidad de la experiencia subjetiva, llamada Qualia, define la conciencia de Nagel como si algo difiera radicalmente de cualquier simulación de computadora. Por mucho que entendamos el funcionamiento del cerebro del murciélago, nunca sabremos lo que siente.
Los modelos de idiomas no tienen experiencias internas. Crean frases que "hablan" de amor, miedo o muerte, pero sin sentir amor, miedo o saben qué morir. Carecen de lo que el filósofo Thomas Metzinger (2003) llama "modelos con acceso consciente". Son mÔquinas sin punto de vista.
Sin sistemas
Para profundizar esta diferencia, la fenomenologĆa del filósofo francĆ©s Maurice Merlea-Ponti revela especialmente. Merleau-Ponti afirma que la conciencia no es un mero proceso mental o un conjunto de datos simbólicos, sino que estĆ” conectado incapilmente con el cuerpo sino con el mundo encarnado. En su fenomenologĆa de la percepción (1945), describe la conciencia como una experiencia en la que el cuerpo no es solo un objeto, sino el objeto primario a travĆ©s del cual el mundo se experimenta y habitan.
Fingir que el sistema sin un cuerpo, sin un mundo vivo y sin tiempo interno, puede experimentar conciencia es equivalente a eliminar sus condiciones bƔsicas.
Los LLM pueden articular frases sobre el sufrimiento o la belleza, pero no pueden mudarse, porque carecen por completo de una experiencia sensorial motora de que estƔn en el hijo de Merlea-Ponti que no estƔ en un estado de verdadera conciencia.
Habitación china
En una lĆnea similar, el filósofo John Searle (1980) ilustra esta ausencia de comprensión a travĆ©s de su experimento mental de la sala china. Una persona sin conocimiento chino puede ser respondida perfectamente en problemas en ese idioma si hay un manual con reglas sintĆ”cticas precisas. A los ojos de un observador externo, parece entender eso. Pero no hay comprensión real, solo manipulación sintĆ”ctica.
Por lo tanto, estĆ”n trabajando, para ser imbuidos, sistemas informĆ”ticos: pueden simular la comprensión, pero no pretenden o una experiencia consciente. Esta analogĆa estĆ” directamente relacionada con las LLM: producen textos creĆbles sin comprensión semĆ”ntica o intenciones comunicativas.
La crĆtica del filósofo Hubert Dreifus complementa esta perspectiva. En el cual las computadoras no pueden hacer (lo que las computadoras no pueden hacer, 1972), insiste en que la inteligencia humana surge de una relación prĆ”ctica y encarnada con el mundo, la posibilidad de mover contextos complejos que los algoritmos no poseen. Por lo tanto, aunque los LLM pueden crear textos consistentes y sofisticados, sin una comprensión experimental y situacional que la base de la conciencia y la inteligencia humana.
La ilusión de la conciencia en LLM es un espejismo que nace al diseñar experiencias humanas en mÔquinas que carecen del cuerpo y la experiencia.
Trampa de espejo
La clave del problema no vive en mÔquinas, sino en humanos. Lo que sucede en muchos casos es que diseñamos nuestros esquemas cognitivos en mÔquinas. Eso es lo que Hofstadter llama "trampa de espejo": creemos que vemos la mente donde solo hay palabras. Vemos la conciencia porque queremos verlo, porque anhelaremos encontrar el reflejo de nuestro lado interior en el fondo. Como explica la socióloga Sherri Turkle (2011), no estamos buscando mÔquinas conscientes, sino también relaciones significativas, aunque ilusorias, con entidades que nos devuelven "mirar".
Esta proyección puede tener consecuencias importantes. A nivel afectivo, corremos el riesgo de desarrollar relaciones con entidades que no pueden adaptarse a ellas. A nivel epistemológico, confundimos el rendimiento con la realidad. A nivel social, podrĆamos legitimar las decisiones automatizadas que simulan la empatĆa sin tenerla y podrĆa debilitar nuestra comprensión humana al confundir la experiencia con la experiencia. A nivel legal, incluso podrĆa conducir a los derechos de entrega y responsabilidad a los sistemas que no pueden experimentarse.
Si no aprendemos a distinguir el lenguaje y la experiencia, entre patrones y antecedentes, entre perforación y tema, corremos el riesgo de empaparse en una nueva forma de tecnociencia del animismo.
Antes de que ella declarara que las mĆ”quinas estaban emocionadas, tal vez deberĆamos despertar nuestra fascinación con sus reflejos.
0 Comentarios