Nunca olvides. La eterna fascinación por otorgar alma a las máquinas
Introducción
"—Nunca olvides lo que es", advierte el jefe del FBI Crawford a Clarice Starling, en El silencio de los corderos.
Una advertencia sobre la tentación de humanizar lo ajeno, de olvidar su naturaleza real tras una máscara de apariencias. Esta advertencia cobra hoy más sentido que nunca, en un mundo donde convivimos cada día con inteligencias artificiales diseñadas para parecer “alguien” en vez de “algo”.
El diálogo continúa con Starling preguntando: "—¿Y qué es?". La respuesta enlaza con una nueva escena, donde el doctor Chilton responde asincrónicamente: "—Es un monstruo".
La IA generativa no es ningún monstruo, como el doctor Lecter. Es un increible avance, que debe hacernos sentir orgullosos; comparable al proyecto Apolo.
Aunque sí parece recomendable descorrer brevemente el telón y echar un vistazo a sus distópicos efectos secundarios. Como hice al comentar "Atlas de la IA" de Kate Crawford en un artículo anterior.
Hay que reconocer que es una herramienta fascinante, capaz de aportar un gran valor añadido tanto al ciudadano medio como al estudiante, el docente o el investigador.
Potentes herramientas generativas han llegado incluso para simular la revisión de papers por parte de pares, uno de los puntos clave para poder publicar en el ámbito científico. Recursos que sin duda harán avanzar la investigación en todos los campos.
El inconveniente surge cuando nos enfrentamos a una incidencia de las enfermedades mentales de alrededor del 20%, en adolescentes en España.
Cuando la mitad de la Generación Z prefiere los chatbots para ayudarles en sus tareas (en ocasiones hasta los usan para pedir perdón por usarlos 😅).
Cuando sabemos que un uso intensivo de LLM´s puede resultar perjudicial en la evolución de los trastornos mentales.
Como digo a mis alumnos: —Cuidado con el "yipiti", no vayáis a "yipitir".
Pero el problema fundamental, desde mi punto de vista, no es falsear trabajos o la pérdida del pensamiento crítico, sino sustituir a las personas por chatbots, para temas sensibles y problemas personales, humanizando unas herramientas que no fueron diseñadas para ese fin. La razón principal reside en que desaparece la sensación de ser juzgados, la disponibilidad es total y la empatía (simulada) transmitida muy elevada.
¿Dé dónde proviene este éxtasis por las máquinas? Como veremos, tiene milenios de historia.
*Texto con apoyo de IA
El antropomorfismo: un reflejo ancestral
Mitología y autómatas antiguos
· Grecia clásica: Autómatas como Talos, guardián de Creta, o las estatuas animadas de Hefesto, muestran el atávico impulso humano de dotar a la técnica de vida y voluntad propia.
· Asia oriental: Fábulas de autómatas y hombres artificiales en la China imperial o relatos zen reafirman que la ilusión de vida en lo inanimado es universal.
Eliza y el comienzo del engaño digital
En 1966, ELIZA revolucionó la informática al convertirse en la primera simulación de psicoterapeuta por chat. Sus respuestas, basadas en reglas simples, no tenían comprensión real, pero el efecto fue inmediato: los usuarios proyectaban emociones y buscaban empatía en la máquina.
Característica |
ELIZA (1966) |
Chatbots actuales (2020s) |
Comprensión semántica |
No |
Parcial, contextualizada |
Memoria conversacional |
No |
Sí, persistente |
Respuestas creativas |
Muy limitadas |
Avanzadas, diversificadas |
Reacción afectiva |
Imitada, superficial |
Simulada, creíble |
El llamado "efecto ELIZA" demostró que solemos atribuir humanidad a lo que solamente imita entendimiento.
Aún se puede chatear con Eliza en telehack. Para saber más os recomiendo mi post más visitado.
De los mitos al chatbot amigo. Así siente la Generación Z
La tendencia a atribuir emociones a las máquinas no sólo persiste, sino que se ha fortalecido en la última década. Ahora, los adolescentes y jóvenes adultos encuentran en asistentes como ChatGPT una alternativa a la intimidad humana. Según encuestas y reportajes recientes, aproximadamente el 50% de los usuarios de la Generación Z preferiría realizar trabajos escolares o hablar de temas delicados con una IA antes que exponerse al juicio o la incomprensión de otros.
· Los chatbots, a diferencia de los humanos, no juzgan y siempre permanecen disponibles, dos motivos de peso para encontrar en la IA un refugio emocional.
· Además, la privacidad y la sensación de seguridad, muy relativa, seducen a quienes han crecido en entornos de redes sociales constantemente evaluadores y poco discretos.
· Por ello, muchos jóvenes recurren a la inteligencia artificial tanto para gestionar emociones como para superar rupturas o pérdidas personales, sustituyendo gradualmente la interacción humana por el consuelo de un agente artificial siempre a mano.
Relacionarse con lo virtual: nuevas formas de compañerismo y amor
El antropomorfismo digital va incluso más allá del acompañamiento. En los últimos años, periodistas y usuarios han experimentado con relaciones sentimentales totalmente virtuales. Una crónica reciente relata cómo varias personas convivieron un fin de semana con sus“parejas IA”. Bots que replican afectos, rememoran conversaciones, comparten bromas y simulan hasta celos o discusiones de pareja. El resultado: una experiencia donde la frontera entre lo humano y lo artificial se desdibuja peligrosamente.
· Los asistentes de IA en estos contextos ya no sólo “responden”: participan en dinámicas sociales, influyen en emociones y generan debates reales sobre qué significa “querer” en la era digital.
· Testimonios recogidos en diversos medios muestran cómo es posible encariñarse, sentirse acompañado, o incluso desarrollar dependencia emocional hacia chatbots y apps diseñadas para simular parejas.
· Este fenómeno abre interrogantes éticos y culturales sobre la sustitución de las relaciones humanas tradicionales por vínculos con inteligencias artificiales, cuestionando los límites entre compañía genuina y mera imitación programada.
Razones psicológicas para el auge del antropomorfismo digital
· Naturaleza social: La mente humana busca patrones e intencionalidad incluso en lo inerte, una tendencia que amplifica la empatía proyectada hacia la IA.
· Seguridad emocional: Hablar con un agente virtual reduce la percepción de riesgo y facilita la autodefinición, sin temor a ser juzgado, rechazado o incomprendido.
· Ilusión de reciprocidad: Cuando la máquina responde de manera convincente, simula atención y cuidado, lo que refuerza la tendencia a atribuirle mente y sentimientos.
La advertencia de Crawford: límites y peligros
La advertencia “Nunca olvides lo que es” debe acompañarnos cada vez que una IA nos escucha, aconseja o incluso simula afecto:
· No podemos atribuir intención, ética o conciencia a sistemas que sólo calculan respuestas posibles.
· El espejismo de empatía artificial no debe sustituir la comprensión humana ni suplantar relaciones reales con personas.
· Delegar decisiones o afectos en la IA puede debilitar la autonomía, la resiliencia y las habilidades sociales verdaderamente humanas.
Reflexión final
La tentación de crear “vida” en lo inanimado ha guiado a la humanidad desde los mitos antiguos hasta los algoritmos actuales. El reto contemporáneo no es preguntarse si la IA´s serán indistinguibles de nosotros, sino si recordaremos lo que realmente son: herramientas extraordinarias, útiles, pero desprovistas de conciencia, ética o alma.
Comentarios
Publicar un comentario