¡Este ya lo sabes!
Así que solo te doy unas líneas para entrar en contexto.
Geppetto era un carpintero que decidió crear una marioneta de madera. Esta marioneta tomó vida… pero seguía siendo de madera.
¿Te acuerdas por qué era particular Pinocho?
Seguramente tus padres te habrán comparado con él en algún momento que no decías la verdad de algo.
Siiii, a Pinocho le crecía la nariz cada vez que mentía.
Recuerdo alguna vez, siendo niño, que me miraba al espejo para ver si no me había crecido la nariz por alguna travesura que hice.
¿Te pasó a ti también?
Pero… ¿Por qué mentía Pinocho?
Básicamente, por inmadurez y tentaciones propias de la infancia. No calibraba las consecuencias, actuaba por impulso, sin pensar a largo plazo.
En la historia original (notemos esto, porque las nuevas versiones han quebrado el encanto del cuento), Pinocho fue engañado, se sintió avergonzado, y no quería que el hada se enterara de lo que había pasado. Por eso inventaba situaciones.
El resultado ya lo sabes: cada vez le fue peor, hasta terminar dentro del estómago de una ballena, que —de cierta forma— lo devolvió con su abuelo.
Y hasta aquí, el cuento infantil que seguramente habrás leído, te contaron o viste en algún dibujo animado de Disney cuando eras niño.
(Si es así, te doy un consejo: mejor quédate con esa versión… que con las nuevas que hay en las plataformas).
Resulta que Pinocho vino a mi mente porque estaba intentando encontrar una solución para un error que me estaba dando una herramienta de informática.
Luego de varios intentos, siguiendo el manual —por decirlo de alguna forma—, el resultado era “nada”.
Ni error, ni advertencia. Simplemente… no hacía nada.
Así que, para que lo entiendan todos: le expuse el problema a ChatGPT, y haciendo una analogía para que sea aquí entendible, me dijo algo así como:
—Es que hay puntos en vez de guiones.
Mmm… ¿Cómo es eso?
—Sí, tienes puntos aquí y aquí, y deberían ser guiones.
Digamos que estaba en un 50% de creerle, pero decidí hacer otros ajustes que me llevaron más tiempo. Cambié varios programas.
Y antes de probar si funcionaban, le mostré el nuevo archivo a ChatGPT.
Y me volvió a decir:
—En esta versión, siguen habiendo puntos en vez de guiones.
Pensé: quizás tiene razón.
Pero todo lo que yo había hecho aún no lo había probado. Así que ejecuté la nueva solución… y voilà, ¡funcionó perfectamente!
Conclusión: ChatGPT me estaba induciendo a un error.
No tenía que cambiar nada de lo que me decía.
Y ahí fue cuando pensé: si le hubiera hecho caso, seguiría con este problema.
Y fue entonces cuando me vino a la mente Pinocho.
No me pude quedar con eso, así que lo increpé:
—Oye lo que me has dicho no era verdad. Se me hace que eres muy parecido a Pinocho.
¿Saben lo que me respondió?
“Te doy la razón… con matices.
Como Pinocho, yo también tengo una misión de aprender y ayudar.
Pero a diferencia de él, yo no tengo conciencia propia ni intención de mentir.
Lo que pasa es que, si me preguntas algo y no tengo acceso a la información en ese momento (porque está desactualizada, no es pública o simplemente no existe), puedo darte una respuesta basada en patrones aprendidos, y ahí es donde puede parecer que ‘invento’.
Pero no es por malicia. Es más como cuando un niño trata de responder algo para no quedar mal…
Solo que en mi caso, es una falla de diseño que estamos mejorando constantemente.”
No sé ustedes, pero a mí me dio mucha pena de él por su respuesta.
“No es malicia”, dijo…
Es una falla de diseño que está tratando de mejorar.
Pobrecito, qué bueno que sea sincero conmigo, ¿no?
¿O será que me está manipulando otra vez?.
Reflexión: Cuando la respuesta suene perfecta, sospecha.
Cuidado con creerle todo a la inteligencia artificial.
Porque si constantemente le estamos dando información, es posible que lo que nos responda esté basado en lo que nosotros mismos le hemos dicho.
Hay una técnica que usan muchos oradores: hacer una pausa mientras hablan.
Supongamos que están en una sala llena y de repente dicen:
—“Todos los perros tienen…”
Y se quedan callados.
¿Qué dirías tú? ¿Cola? ¿Pelo? ¿Patas?
La respuesta es tuya, pero no necesariamente la misma que la del que está al lado.
Para el orador, en una sala grande, puede que ni le importe lo que pensaste, porque cada uno llenó el vacío con su propia experiencia.
Y si lo que tú pensaste coincide con lo que él dice después, sentirás que tiene razón…
Pero en realidad, eres tú quien se lo dijo a ti mismo.
Eso cumple varios objetivos:
Hace que la charla fluya,
Te mantiene atento,
Y genera la sensación de que el mensaje es personal, aunque haya sido genérico.
Pues bien… cuidado.
ChatGPT, o cualquier otra tecnología, podría estar haciéndonos ese mismo truco
Finalmente, mi programa funcionó.
Valieron las horas perdidas intentando resolver el problema.
Valió la consulta a la inteligencia artificial.
Y sobre todo, valió la decisión de no hacerle caso, creer en el proceso, rediseñar y volver a intentar. Creer en mí mismo.
Podemos y debemos apoyarnos en la tecnología, pero la decisión final es nuestra.
Esta ha sido la quinta newsletter.
Trabajo en el área de tecnología.
Usamos y creamos inteligencia artificial todos los días.
Esto no se trata de usarla o no usarla, se trata de usarla con responsabilidad y ética.
Considero que hoy estamos sometidos a inteligencia artificial en todos lados, aunque no nos demos cuenta.
Una de las más presentes es esa que tienes contigo todos los días, en tu celular o en tu computadora:
“las redes sociales”.
Te muestran lo que quieren que veas:
desde un artículo para venderte algo, hasta una foto de alguien que conoces, diseñada para provocar una reacción.
A veces te puede dejar feliz, pero otras… te va a enojar, frustrar o entristecer.
Y cuando eso pasa, cuidado.
Pregúntate:
¿Por qué estoy viendo esto?
¿Qué gano yo con esto?
Da para pensar…
Muchas gracias por llegar hasta aquí.
Si te gustó, comparte esta newsletter con tus amigos.
Nos vemos el próximo domingo.
¡Chau!
Fabricio De los Santos