¿Sueñan las IA´s con ovejas eléctricas? De HAL 9000 a ChatGPT.

 

 
Leo en un artículo que, según Stephen Wolfram, insigne matemático, físico y programador, con importantes aportaciones científicas al alcance de todos, como el portal Wolfram Alpha; las redes neuronales complejas pueden obtener resultados totalmente impredecibles (delirantes, añadiría yo).

En el epílogo de mi obra "De la caverna al metaverso", trato un proyecto menos conocido de OpenAI, una mano robótica que aprendió sola a resolver un cubo de Rubik.

Hubo un momento en que la mano se quedó estancada. Los ingenieros la hicieron "soñar", es decir, la sometieron a situaciones absurdas e irresolubles, para que continuase su aprendizaje.

El principio de irreductibilidad computacional de Wolfram, explicaría muy bien los patinazos alucinatorios de ChatGPT 3.5.

Leyendo el mencionado  artículo, dedicado al influyente chatbot, se me vino a la cabeza el famoso HAL 9000 y su eliminación sistemática de los astronautas de la Discovery 1, en la película de culto "2001". 


 

Si la has visto y has sufrido una luxación mandibular, tranquilo, el propio director Stanley Kubrick no ha intentado esclarecer las infinitas preguntas que plantea el film. 
 
Quizas el ser humano que más se ha acercado a una interpretación coherente fue la entonces estudiante de secundaria Margaret Stackhouse.
 
La IA perversa ha llenado muchas páginas de buena literatura cifi. También grandes ilustradores han sabido plasmar ese aspecto sombrío y amenazador, de unas creaciones dispuestas a violar las leyes de la robótica a la primera de cambio.
 

Portada de Peter Goodfellow para "¿Sueñan los androides con ovejas eléctricas?"

Ya he comentado en mis obras como Siri ha asesorado a personas interesadas por deshacerse de un cadaver. 
Los robots de Asimov son muy respetuosos con las tres leyes dictadas por su literario creador. No obstante el de la serie "Fundación", libremente basada en la saga, comete algún crimencillo que otro...

¿Y qué opinará ChatGPT 3.5 de esto?

Disculpad que sea un tanto cansino con la versión. Es para recordar que yo utilizo la gratuita. No puedo regular la "temperatura" de las respuestas (el mayor o menor grado de especulación e inventiva) ni cargar plugins externos (como el de Wolfram), capaces de expandir sus capacidades científicas, de acceder a información en tiempo real o de hablarnos de viva voz.

Decía Goya que el sueño de la razón creaba monstruos. 
 
Adjunto tercer grado a ChatGPT sobre las acciones de su pariente cinematográfico HAL 9000.
 

 El enorme escenario giratorio para ambientar el anillo de la Discovery 1.
No sé a los lectores, a mi la última parte me recuerda vagamente a la escena sado-masoquista en que HAL 9000 es desconectado por Bowman. 

Da penita ver a HAL con su vocecilla, carente de emociones, relatando su propia muerte. Pero, ¡es que se ha cargado a casi toda la tripulación! 

Pobrecito, a lo mejor es una tara de sus programadores. Mira cómo va olvidando la primera canción que aprendió. 
 
Ya, pero es que Bowman ha tenido que recoger el cuerpo de su compañero y se ha pasado medio minuto a -270ºC; eso cabrea al más templado.

Vamos a permitir el último alegato a ChatGPT. El afirma que es incapaz de soñar y justifica sus errores. Sin embargo, sigo sin creer que las interacciones con sus mil millones de usuarios no vayan a alimentar futuras versiones que sueñen con ovejas eléctricas.
 

P: ¿Cómo explicas las respuestas. en ocasiones, totalmente irreales de ChatGPT 3.5?
 
ChatGPT

Es cierto que, en ocasiones, ChatGPT 3.5 puede generar respuestas que parecen irreales o incoherentes. Esto se debe a varias razones:

  1. Limitaciones en la comprensión contextual: Aunque ChatGPT ha sido entrenado con una amplia variedad de datos, incluyendo contenido de la web, libros y otras fuentes, su conocimiento está limitado a lo que ha sido expuesto durante el entrenamiento. Si una pregunta o solicitud cae fuera de su conocimiento previo, es posible que genere respuestas incorrectas o irrelevantes.

  2. Falta de discernimiento: ChatGPT 3.5 no tiene la capacidad de discernir entre información precisa e incorrecta. Aunque se esfuerza por proporcionar respuestas útiles, puede generar información falsa si se le proporcionan datos incorrectos o si interpreta mal la pregunta.

  3. Tendencia a generar respuestas especulativas: En ausencia de información suficiente, ChatGPT 3.5 puede intentar adivinar o inferir respuestas basadas en patrones y ejemplos previos, lo que puede llevar a respuestas irreales o inexactas.

  4. Sensibilidad a las entradas: ChatGPT 3.5 es altamente influenciable por las entradas que recibe. Incluso pequeñas modificaciones en la formulación de una pregunta pueden resultar en respuestas completamente diferentes o contradictorias.

Es importante tener en cuenta que ChatGPT 3.5 es una herramienta de inteligencia artificial y sus respuestas deben ser evaluadas críticamente por los usuarios. Es recomendable corroborar la información proporcionada por ChatGPT con fuentes confiables y utilizar el sentido común al interpretar sus respuestas.

No obstante sigo considerando que ChatGPT tiene una gran futuro como narrador. 

Esperemos que su sensibilidad no le pase factura, como al Jack Torrance de "El resplandor".

Comentarios

Entradas populares