5  Interactuando con LLMs

Los Modelos de Lenguaje Grande están diseñados para proporcionar la secuencia más probable de tokens de seguimiento dado una secuencia de entrada. Podemos pensar en esta secuencia de entrada como el contexto dado al LLM. Al igual que lo que sucede en conversaciones con extraños, el contexto juega un papel importante. Una forma de proporcionar contexto es construyendo prompts complejos y detallados que intentan describir completamente la información de fondo de la solicitud. Otra forma -más conversacional- es a través de interacciones de ida y vuelta.

Actualmente, la mayoría de los LLMs disponibles públicamente están diseñados como chatbots. Sus interfaces de usuario están diseñadas para interacciones conversacionales y los modelos de back-end están optimizados para desempeñarse mejor en estos tipos de configuraciones de interacción.

5.1 Conversación v. preguntas

Cuando hacemos una pregunta, se espera que descarguemos toda la información relevante necesaria para una respuesta precisa. Sin embargo, esto puede ser desafiante cuando las tareas o consultas son complejas y extensas. Como los LLMs actuales (basados en web) tienen un diseño más conversacional, a menudo es más efectivo interactuar con ellos en una estructura conversacional.

Los seguimientos son una excelente manera de validar y refinar las salidas de los LLMs. Este es el complemento perfecto para el prompting. En lugar de elaborar meticulosamente el prompt perfecto, podemos iniciar la tarea y proporcionar información de seguimiento, refinar solicitudes o sugerir acciones.

– > dame un resumen de las Leyes del Movimiento de Newton
– > hazlo de dos párrafos
– > enmarácalo a nivel de primer año de universidad
– > dame un ejemplo

La estructura conversacional también es una buena forma de detectar errores o alucinaciones. También proporciona una manera de enfocarse en aspectos particulares en lugar de otros dados por el LLM.

Desde la perspectiva del aprendizaje, este enfoque conversacional también ayuda al usuario a participar en un método dialéctico para la comprensión. Al hacer seguimiento, hacer preguntas aclaratorias, proporcionar contexto de refinamiento, el usuario está participando activamente con el tema y no leyendo pasivamente una salida.

5.2 Cadena de pensamiento (CoT)

No solo los usuarios se benefician de este enfoque dialéctico para interactuar con LLMs. El modelo mismo generalmente se desempeña mejor cuando proporcionan un proceso de razonamiento paso a paso.

Prompt regular Prompt CoT
¿cuál es la mejor manera de estudiar para un examen parcial? ¿cuál es la mejor manera de estudiar para un examen parcial? respalda tu respuesta con investigación pedagógica e incluye pros y contras.

Aún más cuando las consultas son subjetivas, o nuestro propio conocimiento del tema es limitado, usar CoT puede proporcionar más contexto para valorar la salida del LLM.

5.3 Comportamiento tipo agente

Un agente es una entidad independiente que es capaz de tomar decisiones y acciones por sí mismo. Aunque los LLMs no presentan todas las características de los agentes, es útil pensar en ellos como tipo agente ya que están tomando activamente decisiones sobre qué texto, hechos o referencias usar para las salidas.

5.3.1 Contexto

Proporcionar suficiente contexto sobre las solicitudes puede ser efectivo para obtener mejores salidas. Esto incluye dar un trasfondo claro de la tarea, tema, propósito y detalles del usuario.

Estudiante Instructor
Asegúrate de incluir detalles sobre tu curso, tu especialidad, nivel de experiencia, el propósito de la consulta, si es para una tarea, para estudiar, etc. Incluye el trasfondo de tu audiencia, el nivel de participación, objetivos de aprendizaje, resultados deseados, etc.

En este sentido, es útil pensar en el LLM como una persona que te está asistiendo y no tiene idea de quién eres, cuál es tu objetivo y qué es valioso para ti.

5.3.2 Proceso

Es clave enfocarse en procesos y no solo en productos. Esto no solo mejora la calidad de las salidas, sino que también sirve mejor al usuario para obtener una comprensión más profunda de la tarea en cuestión.

Prompting para que el LLM incluya pasos intermedios o para respaldar las respuestas es una buena manera de mejorar su efectividad. Los seguimientos aclaratorios y agregar más contexto también son estrategias efectivas para aumentar la precisión y obtener salidas más útiles.

Práctica peligrosa

El extremo opuesto es cuando se solicita a los LLMs “responder en una palabra” o “responder en una oración”. Eliminar argumento, contexto y pasos aumenta las posibilidades de alucinaciones y ruido.

5.3.3 Supervisión

Aunque no completamente autónomos, los LLMs pueden descargar completamente o parcialmente tareas. En este sentido, los usuarios pueden asumir el papel de un gerente o supervisor al interactuar con LLMs. Esto incluye proporcionar orientación e información clara, y evaluar e interpretar sus resultados.

Asegúrate de evaluar y reflexionar constantemente sobre el rendimiento de tu LLM. Esto puede ayudarte a identificar si necesitas proporcionar más contexto, ser más claro con tus direcciones, o quizás probar un modelo o implementación diferente.