Volver a Documentación
Referencia Técnica

Investigación Profunda y Búsqueda Web

Cómo PlanToCode realiza búsquedas web, procesa resultados e integra hallazgos en flujos de trabajo de desarrollo.

8 min de lectura

La función de Investigación Profunda permite a PlanToCode realizar investigación inteligente impulsada por IA, recopilar información relevante e integrar los hallazgos directamente en los flujos de trabajo de desarrollo. Este sistema utiliza modelos de lenguaje grandes para generar consultas de investigación dirigidas basadas en el contexto de tu proyecto, ejecutar tareas de investigación en paralelo y sintetizar información procesable para mejorar la generación de código y las capacidades de resolución de problemas.

Pipeline de Investigación Profunda

El flujo de trabajo de dos etapas: generación de prompts y ejecución de investigación en paralelo.

Diagrama del pipeline de investigación profunda mostrando las etapas de generación de prompts y ejecución
Click to expand
Flujo de trabajo de investigación profunda mostrando las etapas de generación de prompts y ejecución en paralelo

Visión General de la Arquitectura

El sistema de investigación profunda opera como un flujo de trabajo de dos etapas: (1) WebSearchPromptsGeneration - la IA analiza tu tarea y contexto del proyecto para generar consultas de investigación dirigidas, y (2) WebSearchExecution - el LLM ejecuta prompts de investigación en paralelo y sintetiza los hallazgos. Cada etapa está diseñada para confiabilidad, eficiencia de costos y relevancia contextual.

Etapas del Flujo de Trabajo de Investigación

Generación de Prompts

Los prompts de investigación se generan automáticamente por IA basándose en tu descripción de tarea, contexto del proyecto y archivos incluidos. El sistema analiza la estructura de tu código base a través del árbol de directorios y contenido de archivos para formular consultas de investigación dirigidas. Se generan hasta 12 prompts de investigación enfocados por tarea.

Temas de Investigación

  • Documentación de API e investigación específica de bibliotecas
  • Resolución de errores y enfoques de depuración
  • Mejores prácticas y patrones recomendados
  • Compatibilidad de versiones y rutas de migración
  • Consideraciones de seguridad y conciencia de vulnerabilidades

Ejecución de Investigación

Los prompts de investigación son ejecutados en paralelo por modelos de lenguaje de IA. Cada prompt se procesa de forma independiente, permitiendo que el sistema recopile información sobre múltiples aspectos de tu tarea simultáneamente. Los resultados se sintetizan en hallazgos estructurados con títulos e información procesable.

Áreas de Enfoque de Investigación

  • Documentación de API y especificaciones técnicas
  • Ejemplos de código y patrones de implementación
  • Resolución de errores y enfoques de depuración
  • Mejores prácticas y patrones de implementación
  • Compatibilidad de versiones y guía de migración

Procesamiento y Síntesis de Resultados

Los hallazgos de investigación se estructuran en formato JSON con títulos y hallazgos detallados. El sistema agrega resultados de tareas de investigación paralelas, rastrea conteos de éxitos y fallos, y proporciona un resumen de los resultados de la investigación. Los resultados se almacenan en los metadatos del trabajo para fácil acceso.

Pasos de Procesamiento

  • Hallazgos clave extraídos y formateados para integración
  • Resultados organizados por tema de investigación y relevancia
  • Hallazgos consolidados a través de múltiples prompts de investigación
  • Ejecución de investigación rastreada con métricas de tiempo
  • Información procesable y recomendaciones destacadas

Detalles de Integración de API

Configuración de Investigación de IA

El sistema utiliza modelos de lenguaje de IA a través de OpenRouter para realizar investigación web inteligente. El LLM genera consultas de investigación dirigidas basadas en el contexto de tu tarea y sintetiza hallazgos de sus datos de entrenamiento y capacidades de búsqueda web. La selección y configuración del modelo se gestionan a través de la configuración de la aplicación.

// Start the web search workflow (Tauri command)
await invoke("start_web_search_workflow", {
  sessionId,
  taskDescription,
  projectDirectory,
  excludedPaths: ["node_modules", "dist"],
  timeoutMs: 300000,
});

Pipeline de Procesamiento de Contenido

Los hallazgos de investigación pasan por un pipeline de procesamiento estandarizado que extrae información significativa mientras preserva el formato y el contexto. El pipeline maneja varios tipos de contenido y sintetiza los hallazgos en información procesable para flujos de trabajo de desarrollo.

// WebSearchExecution response (stored in job.response)
{
  "searchResults": [
    { "title": "Research Task 1", "findings": "Summary text..." }
  ],
  "searchResultsCount": 1,
  "summary": "Found 1 research findings"
}

Integración con el Flujo de Trabajo de Desarrollo

Investigación Consciente del Contexto

Las solicitudes de investigación se mejoran automáticamente con el contexto de tu sesión actual. El sistema incluye el árbol de directorios de tu proyecto y el contenido de archivos seleccionados en la fase de generación de prompts, permitiendo que la IA formule consultas de investigación específicas para tu código base.

Integración de Resultados

Los hallazgos de investigación se pueden usar para informar los planes de implementación. Cuando las tareas de investigación se completan, los hallazgos se formatean como etiquetas research_finding que se pueden incorporar en tareas de planificación posteriores, asegurando que tu implementación esté guiada por las mejores prácticas actuales y documentación precisa.

Almacenamiento de Resultados

Los resultados de investigación se almacenan en los metadatos del trabajo y se pueden acceder a través del panel de detalles del trabajo. Los resultados persisten durante la duración de la sesión y se pueden referenciar al crear planes de implementación o tomar decisiones de codificación.

Configuración y Personalización

Configuración de Investigación

El comportamiento de investigación se configura a través de la selección de modelo y ajustes de tarea. Elige tu modelo de IA preferido para tareas de investigación, configura tiempos de espera y selecciona qué archivos incluir para el contexto.

Opciones Configurables

  • Directorio del proyecto y selección de archivos para contexto
  • La selección de modelo determina la calidad y el costo de la investigación
  • Máximo 12 prompts de investigación generados por tarea
  • Inicia la investigación manualmente a través del comando de flujo de trabajo
  • Incluye archivos de proyecto relevantes para mejor contexto

Configuración Específica del Proyecto

La configuración de investigación es consciente de la sesión. El sistema utiliza el directorio del proyecto de la sesión actual y los archivos incluidos para proporcionar contexto. Las rutas excluidas (como node_modules, dist) se filtran automáticamente del árbol de directorios mostrado a la IA.

Consideraciones de Costos

Uso y Costos

La investigación profunda utiliza tus créditos de IA configurados a través de OpenRouter. Cada tarea de investigación genera múltiples llamadas LLM en paralelo, por lo que los costos escalan con el número de prompts de investigación generados. El sistema rastrea el uso de tokens y los costos por trabajo para transparencia.

Consejos de Gestión de Costos

  • Uso de tokens rastreado por trabajo de investigación con desglose detallado de costos
  • Costos gestionados a través de tus créditos de suscripción de OpenRouter o PlanToCode
  • Monitorea los metadatos del trabajo para conteos de tokens y costos estimados
  • Resultados de investigación almacenados en caché por sesión para evitar consultas redundantes

Optimización de Costos

Los costos de investigación se gestionan a través de la generación inteligente de prompts - el sistema limita los prompts de investigación a un máximo de 12 por tarea. La ejecución en paralelo minimiza el tiempo de reloj. Cada trabajo rastrea el uso de tokens y los costos estimados en sus metadatos para total transparencia.

Mejores Prácticas y Ejemplos

Estrategias de Búsqueda Efectivas

Para maximizar el valor de la integración de búsqueda web, sigue estas estrategias probadas para formular consultas, interpretar resultados e integrar hallazgos en tu flujo de trabajo de desarrollo.

Formulación de Consultas

  • Incluye números de versión específicos cuando sea relevante
  • Combina nombres de bibliotecas con mensajes de error específicos
  • Usa "mejores prácticas" o "enfoque recomendado" para búsquedas de patrones
  • Incluye restricciones de plataforma o entorno

Evaluación de Resultados

  • Prioriza la documentación oficial sobre fuentes de terceros
  • Revisa las fechas de publicación para información sensible al tiempo
  • Verifica los ejemplos de código en tu entorno de desarrollo
  • Verifica soluciones cruzando múltiples fuentes

Ejemplos de Integración

Los patrones de integración comunes demuestran cómo los resultados de búsqueda web mejoran diferentes escenarios de desarrollo, desde la depuración de errores específicos hasta la implementación de nuevas funcionalidades con APIs desconocidas.

// Example: API integration research
Search query: "Next.js 14 app router middleware authentication"
Results integrated as:
- Middleware setup code with current best practices
- Authentication flow documentation links
- Common pitfalls and troubleshooting tips
- Compatible library recommendations

Resolución de Problemas y Soporte

Problemas Comunes

La mayoría de los problemas de investigación provienen de la conectividad de la API LLM, créditos insuficientes o prompts demasiado amplios. El sistema proporciona mensajes de error claros y seguimiento del estado del trabajo para la resolución de problemas.

Errores de API

Verifica el estado de la API de OpenRouter y el saldo de créditos

No se Generaron Prompts de Investigación

Proporciona descripciones de tareas más específicas o incluye archivos relevantes para contexto

Disponibilidad del Modelo

Algunos modelos pueden tener restricciones regionales a través de OpenRouter

Optimización de Rendimiento

Para un rendimiento óptimo, proporciona descripciones de tareas claras y específicas. Incluye archivos de proyecto relevantes para dar a la IA mejor contexto. El sistema ejecuta prompts de investigación en paralelo para minimizar el tiempo total de ejecución.

¿Listo para usar la Investigación Profunda?

Las funciones de Investigación Profunda y Búsqueda Web están disponibles en la aplicación de escritorio PlanToCode. Descarga la versión para tu plataforma para comenzar a integrar la investigación web en tu flujo de trabajo de desarrollo.