Estimados lectores ocasionales. Me topé con un artículo sobre la IA ChatGPT de OpenAI. Lamentablemente está en inglés, y para mí eso es un un retraso. Pero como en el momento de leerlo estaba utilizando como navegador web, Google Chorome, me propuso traducirlo íntegramente al español. Cosa que hizo. Debo aclarar entonces, que tal vez algunos términos o estructuras sintácticas no sean las más correctas. Dicho esto procedí a leerlo con detenimiento.
Link completo del artículo: Artículo en Inglés.
Lo que voy a hacer es poner una interpretación propia y subjetiva a modo de resumen del mensaje conclusivo que trata de brindar el artículo. Ahí va:
👉 La utilización de ChatGPT es al menos riesgosa y poco confiable. Con frecuencia proporciona respuestas erróneas o incompletas, encubiertas en un lenguaje convincente, tanto en estructura como forma, confundiendo al humano que interactúa con la IA, que la respuesta brindada tiene un valor de verdad. Por lo tanto, solo debe ser considerado una fuente más de información, por ejemplo, a la momento de redactar un artículo de una temática específica, que requiere recurrir a información específica, recomiendan continuar buscando, por ejemplo en Google, que en dado caso nos brindará artículos de humanos y nosotros decidiremos su utilidad a los fines requeridos. Es decir, una solicitud compleja y por fuera de la interacción de una "charla" informal a ver como funciona esta IA, es potencialmente falsa.
El tema es que sistemáticamente omiten en el artículo, lo más básico. El modelo de IA GPT-3.5 llamado ChatGPT está en continuo proceso de aprendizaje. De ninguna manera OpenAI lo presenta como el resultado final en la investigación sobre la búsqueda de la que por definición, sería una Mente Artificial Pensante. Entre otras cosas mencionan que ante la premisa de realizar una multiplicación simple, responde adecuadamente. Pero el humano, luego le dice a la IA que cometió un error, y el resultado verdadero es otro. Se lo suministra dándole valor de verdad. La IA se disculpa, y asume que es ese el resultado correcto (el falso). Bueno, tal vez esta versión de pilas de código, material de entrenamiento y autoaprendizaje, comete errores. Okey, voy a agregar dos imágenes. La primera es una notificación al momento de escribir este artículo. Una actualización. Pues, vuelvo y repito, está en constante actualización y aprendizaje. Luego, bajo cada imagen pongo en español el contenido de cada una.

Aquí, dice, más o menos que al 30 de enero se completo una actualización (ya dije que sigue aprendiendo y siendo actualizado continuamente como cualquier software). Esta actualización de ChatGPT mejora las capacidades matemáticas y factuales del mismo. El botón verde, es una expresión "Suena bueno!" literalmente. Es una notificación de eso nada más. Quizás ahora puedan volver a hacer la multiplicación y fácticamente rechace un resultado falso. O no todavía. Ese es el problema que veo en el artículo, sacan una foto al momento de escribirlo y determinan conclusiones finales de algo que en esencia, es un proceso continuo. Vamos a la segunda imagen. Las advertencias o premisas de OpenAI antes de usar ChatGPT:
Claro, están en inglés, trataré de pasarlas al español lo mejor que pueda. Estas advertencias o premisas, que son muy ligeramente mencionadas en el artículo dado que no son funcionales a sus propósitos de desacreditar algo que no comprenden. Empiezo:
🚩 Ejemplos: "Explica la computación cuántica en términos simples"
"¿Tienes alguna idea creativa para un cumpleaños de 10 años?"
"¿Cómo hago una solicitud HTTP en Javascript?"
🚩 Capacidades: "Recuerda lo que el usuario/a dijo anteriormente en la conversación."
"Permite a los usuarios/as proporcionar correcciones de seguimiento."
"Capacitado para rechazar solicitudes inapropiadas."
🚩 Limitaciones "Puede ocasionalmente generar información incorrecta."
Requiero una traducción correcta que el traductor de Google no me brinda.
"Conocimiento limitado del mundo y los eventos después del 2021"
No es mi intención desacreditar el artículo, pero, no puedo dejar de mencionar que o no leyeron las propias premisas que notifica OpenAI antes de usar ChatGPT o de alguna manera no comprendieron aquella que lisa y llanamente menciona que "Puede ocasionalmente generar información incorrecta".
También tengo que hacer una aclaración extra sobre la "memoria". En el artículo dan a entender que tendría la capacidad de almacenar información de los humanos de una sesión a otra. No es correcto, OpenAI informa que "Recuerda lo que el usuario/a dijo anteriormente en la conversación". Es decir, en la misma sesión de chat. Su programación, según OpenAI o modelo de aprendizaje se basa en en el lenguaje y toma del mismo lo que necesita. No obstante, como es necesario crearse una cuenta para usar ChatGPT, informan también que de todos modos, no se ingrese información sensible, personal o incriminatoria. Cada vez que inicio sesión para chatear, no tiene la menor idea de quién soy. O eso dice. Ante la duda, simplemente seguir las premisas y punto final.
¿Experimento?
Algo interesante del artículo es la realización de un supuesto "experimento" por parte de Teresa Kubacka (Doctorada en Física). Si quieren conocer a la Dra. Kubacka, tiene su página web personal donde expone sus múltiples títulos, formaciones y experiencias. Es decir una científica de pura cepa. Pero debo advertirles, yo les dejo el link, si su navegador no lo abre, es porque a este momento, la web de la Dra. no posee un certificado SSL de seguridad web apto. Componente básico a la hora de generar un sitio web que debe encriptar la información que viaja de él y hasta él. ¿Raro no? Bueno, no tiene por que saber eso. Link:
Dra. Teresa Kubacka.
Cito parte del artículo. Abro comillas.
Teresa Kubacka (Doctorada en Física), como muchos otros, decidió comprobar qué tan preciso es realmente ChatGPT.
Descubrámoslo con Teresa…
Una publicación de Twitter de Teresa Kubacka donde dice que le pidió citas a ChatGPT
Teresa quería comprobar cómo reaccionaría la IA ante cuestiones relacionadas con fenómenos que no existen en Física. En este punto, AI dio una respuesta razonable, que fue tan convincente que incluso Teresa tuvo que comprobar si la respuesta era cierta.
Esta vez, el chat también dio una respuesta que usaba nombres de autores reales e incluso títulos de publicaciones. El problema era que la mayoría de ellos no existían; si existieron, estaban en un tema completamente diferente.
Cierro comillas.
A ver, una opinión personal sobre este experimento. Lo voy a redactar como si me estuviera dirigiendo a la Dra. Kubacka misma: "Estimada Dra. Kubacka, usted que está versada y es amplia conocedora de la metodología y filosofía de la ciencia, dado el impresionante Currículum que exhibe, como un aporte de alguien que no apila tantos títulos como usted, le sugiero que si pretende exponer a una IA a algún experimento que tenga cierto grado de valor científico, tiene libertad de hacerlo. Por supuesto, el experimento debe estar aprobado por convención por la comunidad científica internacional. Podría entonces estudiar y articular un Test o Prueba de Turing, que hace 73 años sigue estando en el top ten de metodologías aprobadas y propias a tal fin. Porque realizarle 150 preguntas sobre física, si lo desea, aleatorias, la llevará a conclusiones erróneas, imprecisas o tal vez acertadas. En cualquiera de los tres casos, el resultado será inconcluyente y carecerá de rigor científico."
Para finalizar este artículo, simplemente agrego que el artículo citado me parece parcial, inconcluyente e intenta aconsejar a sus lectores sobre cuál debería ser el correcto uso de ChatGPT fundándose en premisas pseudocientíficas que salieron de un Tweet de alguien que quizás sepa mucho de Física, pero de IA, tal vez, debería leer algo más. O al menos, las premisas y advertencias de la propia empresa OpenAI. Gastaron bits y tiempo en hacer ese artículo, y yo también, para tratar de traer un poco del luz sobre el mismo.
Comentarios
Publicar un comentario